<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:taxo="http://purl.org/rss/1.0/modules/taxonomy/" version="2.0">
  <channel>
    <title>question Re: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS] in Support Questions</title>
    <link>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/388306#M246622</link>
    <description>&lt;P&gt;Hi&amp;nbsp;&lt;a href="https://community.cloudera.com/t5/user/viewprofilepage/user-id/110560"&gt;@hiralal&lt;/a&gt;&amp;nbsp;, Another link&amp;nbsp;&lt;A href="https://steveloughran.gitbooks.io/kerberos_and_hadoop/content/sections/hadoop_tokens.html" target="_blank"&gt;https://steveloughran.gitbooks.io/kerberos_and_hadoop/content/sections/hadoop_tokens.html&lt;/A&gt;&amp;nbsp;if you would like to check out.&lt;/P&gt;</description>
    <pubDate>Fri, 24 May 2024 09:38:09 GMT</pubDate>
    <dc:creator>Majeti</dc:creator>
    <dc:date>2024-05-24T09:38:09Z</dc:date>
    <item>
      <title>org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]</title>
      <link>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/387796#M246438</link>
      <description>&lt;P&gt;I am trying to access the hadoop filesystem but I am facing below error.&lt;BR /&gt;How to provide the access right to the user.&lt;BR /&gt;even getfacl command also giving same error.&lt;BR /&gt;&lt;BR /&gt;I have tried the kinit command user has valid TGT.&lt;BR /&gt;&lt;BR /&gt;My main objective is to use the HadoopDelegation token.&lt;BR /&gt;but code is failing even when tried to just list the hdfs files.&lt;/P&gt;&lt;DIV&gt;&lt;PRE&gt;FileSystem fs = FileSystem.&lt;SPAN&gt;get&lt;/SPAN&gt;(conf);&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;Path root = &lt;SPAN&gt;new &lt;/SPAN&gt;Path(&lt;SPAN&gt;"/"&lt;/SPAN&gt;);&lt;BR /&gt;System.&lt;SPAN&gt;out&lt;/SPAN&gt;.println((root));&lt;BR /&gt;fs.listStatus(root); ----- code failing on this line&lt;/PRE&gt;&lt;/DIV&gt;&lt;P&gt;&lt;BR /&gt;&lt;BR /&gt;ERROR message :&lt;BR /&gt;java -jar HadoopDelegation-1.0-SNAPSHOT.jar&lt;BR /&gt;log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).&lt;BR /&gt;log4j:WARN Please initialize the log4j system properly.&lt;BR /&gt;log4j:WARN See &lt;A href="http://logging.apache.org/log4j/1.2/faq.html#noconfig" target="_blank" rel="noopener"&gt;http://logging.apache.org/log4j/1.2/faq.html#noconfig&lt;/A&gt; for more info.&lt;BR /&gt;java.io.IOException: DestHost:destPort master.localdomain.com:8020 , LocalHost:localPort master.localdomain.com/10.49.0.149:0. Failed on local exception: java.io.IOException: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]&lt;BR /&gt;at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)&lt;BR /&gt;at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)&lt;BR /&gt;at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)&lt;BR /&gt;at java.lang.reflect.Constructor.newInstance(Constructor.java:423)&lt;BR /&gt;at org.apache.hadoop.net.NetUtils.wrapWithMessage(NetUtils.java:831)&lt;BR /&gt;at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:806)&lt;BR /&gt;at org.apache.hadoop.ipc.Client.getRpcResponse(Client.java:1501)&lt;BR /&gt;at org.apache.hadoop.ipc.Client.call(Client.java:1443)&lt;BR /&gt;at org.apache.hadoop.ipc.Client.call(Client.java:1353)&lt;BR /&gt;at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:228)&lt;BR /&gt;at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:116)&lt;BR /&gt;at com.sun.proxy.$Proxy11.getFileInfo(Unknown Source)&lt;BR /&gt;at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.getFileInfo(ClientNamenodeProtocolTranslatorPB.java:900)&lt;BR /&gt;at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)&lt;BR /&gt;at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)&lt;BR /&gt;at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)&lt;BR /&gt;at java.lang.reflect.Method.invoke(Method.java:498)&lt;BR /&gt;at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:422)&lt;BR /&gt;at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeMethod(RetryInvocationHandler.java:165)&lt;BR /&gt;at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invoke(RetryInvocationHandler.java:157)&lt;BR /&gt;at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeOnce(RetryInvocationHandler.java:95)&lt;BR /&gt;at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:359)&lt;BR /&gt;at com.sun.proxy.$Proxy12.getFileInfo(Unknown Source)&lt;BR /&gt;at org.apache.hadoop.hdfs.DFSClient.getFileInfo(DFSClient.java:1654)&lt;BR /&gt;at org.apache.hadoop.hdfs.DistributedFileSystem$29.doCall(DistributedFileSystem.java:1579)&lt;BR /&gt;at org.apache.hadoop.hdfs.DistributedFileSystem$29.doCall(DistributedFileSystem.java:1576)&lt;BR /&gt;at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)&lt;BR /&gt;at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1591)&lt;BR /&gt;at org.apache.hadoop.fs.FileSystem.exists(FileSystem.java:1734)&lt;BR /&gt;at ptytest.HdfsExample.main(HdfsExample.java:31)&lt;BR /&gt;Caused by: java.io.IOException: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection$1.run(Client.java:757)&lt;BR /&gt;at java.security.AccessController.doPrivileged(Native Method)&lt;BR /&gt;at javax.security.auth.Subject.doAs(Subject.java:422)&lt;BR /&gt;at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1729)&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection.handleSaslConnectionFailure(Client.java:720)&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:813)&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection.access$3600(Client.java:410)&lt;BR /&gt;at org.apache.hadoop.ipc.Client.getConnection(Client.java:1558)&lt;BR /&gt;at org.apache.hadoop.ipc.Client.call(Client.java:1389)&lt;BR /&gt;... 22 more&lt;BR /&gt;Caused by: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]&lt;BR /&gt;at org.apache.hadoop.security.SaslRpcClient.selectSaslClient(SaslRpcClient.java:173)&lt;BR /&gt;at org.apache.hadoop.security.SaslRpcClient.saslConnect(SaslRpcClient.java:390)&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection.setupSaslConnection(Client.java:614)&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection.access$2300(Client.java:410)&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection$2.run(Client.java:800)&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection$2.run(Client.java:796)&lt;BR /&gt;at java.security.AccessController.doPrivileged(Native Method)&lt;BR /&gt;at javax.security.auth.Subject.doAs(Subject.java:422)&lt;BR /&gt;at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1729)&lt;BR /&gt;at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:796)&lt;BR /&gt;... 25 more&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;core-site.xml&lt;/P&gt;&lt;P&gt;&amp;lt;?xml version="1.0" encoding="UTF-8"?&amp;gt;&lt;/P&gt;&lt;P&gt;&amp;lt;!--Autogenerated by Cloudera Manager--&amp;gt;&lt;BR /&gt;&amp;lt;configuration&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.security.authentication&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;kerberos&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.security.authorization&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;true&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.rpc.protection&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;authentication&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.http.header.Strict_Transport_Security&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;max-age=0; includeSubDomains&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.ssl.enabled&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;false&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.ssl.require.client.cert&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;false&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;final&amp;gt;true&amp;lt;/final&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.ssl.keystores.factory.class&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;org.apache.hadoop.security.ssl.FileBasedKeyStoresFactory&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;final&amp;gt;true&amp;lt;/final&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.ssl.server.conf&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;ssl-server.xml&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;final&amp;gt;true&amp;lt;/final&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.ssl.client.conf&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;ssl-client.xml&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;final&amp;gt;true&amp;lt;/final&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.security.auth_to_local&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;RULE:[2:$1@$0](rangeradmin@EXAMPLE.COM)s/(.*)@EXAMPLE.COM/ranger/&lt;BR /&gt;RULE:[2:$1@$0](rangertagsync@EXAMPLE.COM)s/(.*)@EXAMPLE.COM/rangertagsync/&lt;BR /&gt;RULE:[2:$1@$0](rangerusersync@EXAMPLE.COM)s/(.*)@EXAMPLE.COM/rangerusersync/&lt;BR /&gt;DEFAULT&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.oozie.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.oozie.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.HTTP.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.HTTP.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.hive.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.hive.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.hue.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.hue.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.httpfs.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.httpfs.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.knox.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.knox.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.livy.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.livy.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.impala.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.impala.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.hdfs.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.hdfs.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.yarn.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.yarn.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.phoenix.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.phoenix.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.kudu.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.kudu.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.user2.hosts&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.proxyuser.user2.groups&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;*&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;fs.defaultFS&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;hdfs://master.localdomain.com:8020&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;ipc.client.connection.maxidletime&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;30000&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;ipc.client.connect.max.retries&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;50&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;fs.trash.interval&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;1&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;io.compression.codecs&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.BZip2Codec,org.apache.hadoop.io.compress.DeflateCodec,org.apache.hadoop.io.compress.SnappyCodec,org.apache.hadoop.io.compress.Lz4Codec&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.security.group.mapping&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;org.apache.hadoop.security.ShellBasedUnixGroupsMapping&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;hadoop.security.instrumentation.requires.admin&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;false&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;/P&gt;&lt;P&gt;&amp;lt;/configuration&amp;gt;&lt;BR /&gt;&lt;BR /&gt;hdfs-site.xml:&lt;/P&gt;&lt;P&gt;&amp;lt;?xml version="1.0" encoding="UTF-8"?&amp;gt;&lt;/P&gt;&lt;P&gt;&amp;lt;!--Autogenerated by Cloudera Manager--&amp;gt;&lt;BR /&gt;&amp;lt;configuration&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.namenode.name.dir&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;file:///dfs/nn&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.namenode.servicerpc-address&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;master.localdomain.com:8022&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.https.address&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;master.localdomain.com:9871&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.https.port&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;9871&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.namenode.http-address&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;master.localdomain.com:9870&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.replication&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;3&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.blocksize&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;134217728&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.client.use.datanode.hostname&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;false&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;fs.permissions.umask-mode&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;022&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.client.block.write.locateFollowingBlock.retries&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;7&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.encrypt.data.transfer.algorithm&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;3des&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.encrypt.data.transfer.cipher.suites&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;AES/CTR/NoPadding&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.encrypt.data.transfer.cipher.key.bitlength&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;256&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.namenode.acls.enabled&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;true&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.client.read.shortcircuit&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;true&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.client.read.shortcircuit.streams.cache.size&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;4096&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.domain.socket.path&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;/var/run/hdfs-sockets/dn&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.client.read.shortcircuit.skip.checksum&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;false&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.client.domain.socket.data.traffic&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;false&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.datanode.hdfs-blocks-metadata.enabled&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;true&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.block.access.token.enable&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;true&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.namenode.kerberos.principal&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;hdfs/_HOST@EXAMPLE.COM&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.namenode.kerberos.internal.spnego.principal&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;HTTP/_HOST@EXAMPLE.COM&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;dfs.datanode.kerberos.principal&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;hdfs/_HOST@EXAMPLE.COM&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;property&amp;gt;&lt;BR /&gt;&amp;lt;name&amp;gt;fs.defaultFS&amp;lt;/name&amp;gt;&lt;BR /&gt;&amp;lt;value&amp;gt;hdfs://master.localdomain.com:8020&amp;lt;/value&amp;gt;&lt;BR /&gt;&amp;lt;/property&amp;gt;&lt;BR /&gt;&amp;lt;/configuration&amp;gt;&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;&lt;/P&gt;&lt;P&gt;&lt;BR /&gt;&lt;BR /&gt;&lt;/P&gt;</description>
      <pubDate>Mon, 13 May 2024 07:54:41 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/387796#M246438</guid>
      <dc:creator>hiralal</dc:creator>
      <dc:date>2024-05-13T07:54:41Z</dc:date>
    </item>
    <item>
      <title>Re: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]</title>
      <link>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/387809#M246442</link>
      <description>&lt;P&gt;&lt;a href="https://community.cloudera.com/t5/user/viewprofilepage/user-id/110560"&gt;@hiralal&lt;/a&gt;,&amp;nbsp;Welcome to our community! To help you get the best possible answer, I have tagged in our HDFS experts&amp;nbsp;&lt;a href="https://community.cloudera.com/t5/user/viewprofilepage/user-id/91929"&gt;@SVB&lt;/a&gt;&amp;nbsp;&lt;a href="https://community.cloudera.com/t5/user/viewprofilepage/user-id/80393"&gt;@rki_&lt;/a&gt;&amp;nbsp; who may be able to assist you further.&lt;BR /&gt;&lt;BR /&gt;Please feel free to provide any additional information or details about your query, and we hope that you will find a satisfactory solution to your question.&lt;/P&gt;</description>
      <pubDate>Mon, 13 May 2024 09:25:16 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/387809#M246442</guid>
      <dc:creator>VidyaSargur</dc:creator>
      <dc:date>2024-05-13T09:25:16Z</dc:date>
    </item>
    <item>
      <title>Re: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]</title>
      <link>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/387841#M246455</link>
      <description>&lt;LI-CODE lang="java"&gt;package ptytest;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.security.UserGroupInformation;

import java.security.PrivilegedExceptionAction;

public class HdfsExample {
    public static void main(String[] args) {
        try {
            Configuration conf = new Configuration();
            conf.set("hadoop.security.authentication", "Kerberos");
            conf.addResource(new Path("/etc/hadoop/conf.cloudera.hdfs/core-site.xml"));
            conf.addResource(new Path("/etc/hadoop/conf.cloudera.hdfs/hdfs-site.xml"));

            UserGroupInformation.setConfiguration(conf);

            UserGroupInformation.loginUserFromKeytab("user1@EXAMPLE.COM", "/tmp/automation.keytab");

            UserGroupInformation user1 = UserGroupInformation.getCurrentUser();

            user1.doAs((PrivilegedExceptionAction&amp;lt;Void&amp;gt;) () -&amp;gt; {
                FileSystem fs = FileSystem.get(conf);
                
                Path root = new Path("/user/user1");
                System.out.println("Listing root directory:");
                fs.listStatus(root);

                fs.close();

                return null;
            });
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}&lt;/LI-CODE&gt;&lt;P&gt;I am trying to run the above code&lt;/P&gt;</description>
      <pubDate>Tue, 14 May 2024 06:19:25 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/387841#M246455</guid>
      <dc:creator>hiralal</dc:creator>
      <dc:date>2024-05-14T06:19:25Z</dc:date>
    </item>
    <item>
      <title>Re: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]</title>
      <link>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/387855#M246463</link>
      <description>&lt;P&gt;Hi&amp;nbsp;&lt;a href="https://community.cloudera.com/t5/user/viewprofilepage/user-id/110560"&gt;@hiralal&lt;/a&gt;,&lt;/P&gt;&lt;P&gt;&amp;nbsp;Your Java code seems correct and I verified it's working fine in my lab. Before running this code, I hope you have already tested using kinit cmd. Attach /etc/krb5.conf. Also try to run "java -Dsun.security.krb5.debug=true -cp `hadoop classpath`:. HdfsExample" to get more info on why it's failing. It's failing to get TGT.&lt;/P&gt;</description>
      <pubDate>Tue, 14 May 2024 13:08:11 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/387855#M246463</guid>
      <dc:creator>Majeti</dc:creator>
      <dc:date>2024-05-14T13:08:11Z</dc:date>
    </item>
    <item>
      <title>Re: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]</title>
      <link>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/388181#M246563</link>
      <description>&lt;P&gt;thanks for the solution.&lt;BR /&gt;can you please share the documentation for hadoop delegation token&lt;BR /&gt;only resource available is :&amp;nbsp;&lt;A href="https://blog.cloudera.com/hadoop-delegation-tokens-explained/" target="_blank"&gt;https://blog.cloudera.com/hadoop-delegation-tokens-explained/&lt;/A&gt;&lt;/P&gt;</description>
      <pubDate>Wed, 22 May 2024 04:14:44 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/388181#M246563</guid>
      <dc:creator>hiralal</dc:creator>
      <dc:date>2024-05-22T04:14:44Z</dc:date>
    </item>
    <item>
      <title>Re: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]</title>
      <link>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/388306#M246622</link>
      <description>&lt;P&gt;Hi&amp;nbsp;&lt;a href="https://community.cloudera.com/t5/user/viewprofilepage/user-id/110560"&gt;@hiralal&lt;/a&gt;&amp;nbsp;, Another link&amp;nbsp;&lt;A href="https://steveloughran.gitbooks.io/kerberos_and_hadoop/content/sections/hadoop_tokens.html" target="_blank"&gt;https://steveloughran.gitbooks.io/kerberos_and_hadoop/content/sections/hadoop_tokens.html&lt;/A&gt;&amp;nbsp;if you would like to check out.&lt;/P&gt;</description>
      <pubDate>Fri, 24 May 2024 09:38:09 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Support-Questions/org-apache-hadoop-security-AccessControlException-Client/m-p/388306#M246622</guid>
      <dc:creator>Majeti</dc:creator>
      <dc:date>2024-05-24T09:38:09Z</dc:date>
    </item>
  </channel>
</rss>

