hadoops 설치 1

Hadoop 공부 #1 – 설치

Hadoop을 2대의 리눅스 서버에 설치해 보았다. 2대면 별로 효능을 기대할 수 없지만 일단 공부한다는 차원에서..

Hadoop이 무엇인지에 대해서 보다 Hadoop의 설치에 대한 간단한 정리부터 올리는 것이 이상하긴 하지만,

잊어먹기전에 먼저.. ㅡ_ㅡ;;

다음 편에서는 Hadoop의 간단한 명령어, 그리고 다음에는 Hadoop을 이용한 프로그래밍 방법, 그리고 hadoop의 내부구조를 분석할 여유가 있으면 내부구조에 대한 간단한 이야기…

마지막으로 Hadoop이 무엇인지에 대해서, 엽기적인 순서로 정리해볼까 생각중이다. ㅡ_ㅡ;;

참 무계획의 화신이다. -_-;

———————————-

hadoop url: http://hadoop.apache.org/

* 핵심 설정파일

    * hadoop-env.sh : hadoop을 운용하기 위한 환경변수

    * hadoop-site.xml : master node의 호스트정보와 분산디렉토리 파일시스템 정보

    * slaves : data node 호스트이름

* 네트웍 환경 설정

– namenode: 192.168.131.101       gdevh01

– datanode: 192.168.131.101       gdevh01

            192.168.131.102        gdevh02

            

* 파일 구조 설정

mkdir /hdfs

mkdir /hdfs/hadoop

mkdir /hdfs/filesystem

mkdir /hdfs/local

mkdir /hdfs/home

groupadd users

useradd -d /hdfs/home -g users hadoop

chown -R hadoop:users /hdfs

passwd hadoop

이 다음부터는 hadoop 계정으로 로긴한다.

* conf/hadoop-env.sh 설정 내용

export HADOOP_HOME=/home/yundream/workspace/nutch-nightly

export JAVA_HOME=/usr/local/java

export HADOOP_LOG_DIR=${HADOOP_HOME}/logs

export HADOOP_SLAVES=${HADOOP_HOME}/conf/slaves

* conf/hadoop-site.xml

<?xml version=”1.0″?>

<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>

<!– Put site-specific property overrides in this file. –>

<configuration>

<property>

        <name>fs.default.name</name>

        <value>gdevh01:9000</value>

</property>

<property>

        <name>mapred.job.tracker</name>

        <value>gdevh01:9001</value>

</property>

<property>

        <name>dfs.name.dir</name>

        <value>/hdfs/filesystem/name</value>

</property>

<property>

        <name>dfs.data.dir</name>

        <value>/hdfs/filesystem/data</value>

</property>

<property>

        <name>mapred.system.dir</name>

        <value>/hdfs/filesystem/mapreduce/system</value>

</property>

<property>

        <name>mapred.local.dir</name>

        <value>/hdfs/filesystem/mapreduce/local</value>

</property>

<property>

        <name>dfs.replication</name>

        <value>1</value>

</property>

</configuration>

* slaves

gdevh01

gdevh02

— 각 서버에 모두 같이 셋팅 하도록 한다.

* ssh를 통한 자동 로그인 셋팅

cd /hdfs/home

ssh-keygen -t rsa (Use empty responses for each prompt)

  Enter passphrase (empty for no passphrase):

  Enter same passphrase again:

  Your identification has been saved in /nutch/home/.ssh/id_rsa.

  Your public key has been saved in /nutch/home/.ssh/id_rsa.pub.

  The key fingerprint is:

  a6:5c:c3:eb:18:94:0b:06:a1:a6:29:58:fa:80:0a:bc hadoop@gdevh01

cd /hdfs/home/.ssh

cp id_rsa.pub authorized_keys

scp /hdfs/home/.ssh/authorized_keys hadoop@gdevh02:/hdfs/home/.ssh/authorized_keys

ssh gdevh02 — 자동으로 로그인 됨.

* Namenode 포맷 설정

bin/hadoop namenode -format

* 시작 및 종료

시작

bin/start-all.sh

종료

bin/stop-all.sh

* 방화벽 설정

master node

$ vi /etc/sysconfig/iptables

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 9000 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 9001 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50010 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50030 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50040 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50050 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50060 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50070 -j ACCEPT

$ /etc/init.d/iptables restart

slave node

$ vi /etc/sysconfig/iptables

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50010 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50040 -j ACCEPT

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50050 -j ACCEPT

#추가 2006.06.27

-A RH-Firewall-1-INPUT -m state –state NEW -m tcp -p tcp –dport 50060 -j ACCEPT

$ /etc/init.d/iptables restart  

서진우

슈퍼컴퓨팅 전문 기업 클루닉스/ 상무(기술이사)/ 정보시스템감리사/ 시스존 블로그 운영자

You may also like...

페이스북/트위트/구글 계정으로 댓글 가능합니다.