GNU/Linux >> Linux の 問題 >  >> Linux

LinuxでHADOOP_HOMEパスを見つける方法は?

Hadoop がインストールされているパスに移動します。 ${HADOOP_HOME}/etc/hadoop を見つけます 、例

/usr/lib/hadoop-2.2.0/etc/hadoop

このフォルダに対して ls と入力すると、これらすべてのファイルが表示されます。

capacity-scheduler.xml      httpfs-site.xml
configuration.xsl           log4j.properties
container-executor.cfg      mapred-env.cmd
core-site.xml               mapred-env.sh
core-site.xml~              mapred-queues.xml.template
hadoop-env.cmd              mapred-site.xml
hadoop-env.sh               mapred-site.xml~
hadoop-env.sh~              mapred-site.xml.template
hadoop-metrics2.properties  slaves
hadoop-metrics.properties   ssl-client.xml.example
hadoop-policy.xml           ssl-server.xml.example
hdfs-site.xml               yarn-env.cmd
hdfs-site.xml~              yarn-env.sh
httpfs-env.sh               yarn-site.xml
httpfs-log4j.properties     yarn-site.xml~
httpfs-signature.secret

コア構成設定は hadoop-env.sh で利用できます。

このファイルでクラスパス設定を確認できます。参照用にサンプルをここにコピーしました。

# The java implementation to use.
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_67

# The jsvc implementation to use. Jsvc is required to run secure datanodes.
#export JSVC_HOME=${JSVC_HOME}

export HADOOP_CONF_DIR=${HADOOP_CONF_DIR}

# Extra Java CLASSPATH elements.  Automatically insert capacity-scheduler.
for f in $HADOOP_HOME/contrib/capacity-scheduler/*.jar; do
    export HADOOP_CLASSPATH=${HADOOP_CLASSPATH+$HADOOP_CLASSPATH:}$f
done

これがお役に立てば幸いです!


hadoop-core jar ファイルは、${HADOOP_HOME} ディレクトリではなく、${HADOOP_HOME}/share/hadoop/common ディレクトリにあります。

.bashrc ファイルで環境変数を設定できます。

vim ~/.bashrc

次に、次の行を .bashrc ファイルの末尾に追加します。

export HADOOP_HOME=/your/hadoop/installation/directory

パスを Hadoop インストール パスに置き換えるだけです。


Linux
  1. LinuxでFINDを使用する方法

  2. Linuxモジュールのパスを見つける方法

  3. LinuxでChromedriverをPATHに追加するには?

  1. Linuxでファイルを見つける方法

  2. Linux – Lddがパスを見つけられない、追加する方法は?

  3. LinuxでデフォルトゲートウェイIPを見つける方法

  1. LinuxでIPアドレスを見つける方法

  2. Linuxでファイルを見つける方法

  3. MacまたはLinuxでgitのインストールパスを見つける方法は?