このチュートリアルでは、Ubuntu 18.04LTSにApacheHadoopをインストールする方法を示します。知らない人のために、ApacheHadoopは分散ストレージに使用されるオープンソースフレームワークです。 HadoopはHadoop分散ファイルシステム(HDFS)にデータを保存し、このデータの処理はMapReduceを使用して行われます。YARNはリソースを要求および割り当てるためのAPIを提供します。 Hadoopクラスター内。
この記事は、少なくともLinuxの基本的な知識があり、シェルの使用方法を知っていること、そして最も重要なこととして、サイトを独自のVPSでホストしていることを前提としています。インストールは非常に簡単で、ルートアカウントで実行されていますが、そうでない場合は、'sudo
を追加する必要があります。 ‘ルート権限を取得するコマンドに。 Ubuntu 18.04(Bionic Beaver)サーバーにApacheHadoopを段階的にインストールする方法を紹介します。
前提条件
- 次のオペレーティングシステムのいずれかを実行しているサーバー:Ubuntu 18.04(Bionic Beaver)。
- 潜在的な問題を防ぐために、OSの新規インストールを使用することをお勧めします。
- サーバーへのSSHアクセス(またはデスクトップを使用している場合はターミナルを開く)
non-root sudo user
またはroot user
へのアクセス 。non-root sudo user
として行動することをお勧めします ただし、ルートとして機能するときに注意しないと、システムに害を及ぼす可能性があるためです。
Ubuntu 18.04 LTSBionicBeaverにApacheHadoopをインストールする
手順1.まず、ターミナルで次のapt-getコマンドを実行して、すべてのシステムパッケージが最新であることを確認します。
sudo apt-get update sudo apt-get upgrade
ステップ2. Java(OpenJDK)をインストールします。
HadoopはJavaに基づいているため、システムにJava JDKがインストールされていることを確認してください。システムにJavaがインストールされていない場合は、次のリンクを使用してください。最初にインストールします。
- UbuntuにJavaJDK8をインストールします:
[email protected] ~# java -version java version "1.8.0_192" Java(TM) SE Runtime Environment (build 1.8.0_192-b02) Java HotSpot(TM) 64-Bit Server VM (build 25.74-b02, mixed mode)
ステップ3.Ubuntu18.04にApacheHadoopをインストールします。
セキュリティの問題を回避するために、次のコマンドに従って、新しいHadoopユーザーグループとユーザーアカウントを設定して、Hadoop関連のすべてのアクティビティを処理することをお勧めします。
sudo addgroup hadoopgroup sudo adduser —ingroup hadoopgroup hadoopuser
ユーザーを作成した後、独自のアカウントでキーベースのsshを設定する必要もあります。これを行うには、次のコマンドを実行します。
su - hadoopuser ssh-keygen -t rsa -P "" cat /home/hadoopuser/.ssh/id_rsa.pub >> /home/hadoopuser/.ssh/authorized_keys chmod 600 authorized_keys ssh-copy-id -i ~/.ssh/id_rsa.pub slave-1 ssh slave-1
Apache Hadoopの最新の安定バージョンをダウンロードします。この記事を書いている時点では、バージョン3.1.1です:
wget http://www-us.apache.org/dist/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz tar xzf hadoop-3.1.1.tar.gz mv hadoop-3.1.1 hadoop
環境変数を設定します。〜/ .bashrcファイルを編集し、ファイルの最後に次の値を追加します。
export HADOOP_HOME=/home/hadoop/hadoop export HADOOP_INSTALL=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
現在実行中のセッションに環境変数を適用します:
source ~/.bashrc
ここで、$HADOOP_HOME/etc/hadoop/hadoop-env.sh
を編集します。 ファイルを作成し、JAVA_HOME環境変数を設定します:
export JAVA_HOME=/usr/jdk1.8.0_192/
Hadoopには多くの構成ファイルがあり、Hadoopインフラストラクチャの要件に従って構成する必要があります。基本的なHadoopシングルノードクラスターのセットアップから構成を始めましょう。
cd $HADOOP_HOME/etc/hadoop
core-site.xml
を編集します :
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration>
hdfs-site.xml
を編集します :
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>file:///home/hadoop/hadoopdata/hdfs/namenode</value> </property> <property> <name>dfs.data.dir</name> <value>file:///home/hadoop/hadoopdata/hdfs/datanode</value> </property> </configuration>
mapred-site.xml
を編集します :
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
yarn-site.xml
を編集します :
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
次のコマンドを使用してnamenodeをフォーマットします。ストレージディレクトリを確認することを忘れないでください:
hdfs namenode -format
すべてのHadoopサービスを開始するには、次のコマンドを使用します:
cd $HADOOP_HOME/sbin/ start-dfs.sh start-yarn.sh
出力を観察して、スレーブノードのデータノードを1つずつ開始しようとしていることを確認する必要があります。'jps
‘コマンド:
jps
ステップ5.ApacheHadoopへのアクセス。
Apache Hadoopは、デフォルトでHTTPポート8088およびポート50070で使用できます。お気に入りのブラウザーを開き、http://your-domain.com:50070
またはhttp://server-ip:50070
。ファイアウォールを使用している場合は、ポート8088と50070を開いて、コントロールパネルにアクセスできるようにしてください。
おめでとうございます!Hadoopが正常にインストールされました。Ubuntu18.04LTSシステムにApache Hadoopをインストールするためにこのチュートリアルを使用していただき、ありがとうございます。追加のヘルプや役立つ情報については、ApacheHadoopの公式Webサイトを確認することをお勧めします。