사양이 딸려서(?) Cloudera 이용하지 않고 하둡 압축파일만 받아 설치해보기로 하였습니다.
# wget https://downloads.apache.org/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
압축해제
# tar -zxvf hadoop-3.3.0.tar.gz
디렉터리 이동
# mv hadoop-3.3.0 /usr/local
환경변수 설정
# vi /etc/profile
# 추가
export HADOOP_HOME=/usr/local/hadoop-3.3.0
# 수정
export PATH=$PATH:JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
수정한 환경변수 적용
[root@hadoop01 hadoop-3.3.0]# source /etc/profile
[root@hadoop01 hadoop-3.3.0]# echo $HADOOP_HOME
/usr/local/hadoop-3.3.0
Hadoop 설정 관련
실행시 아래와 같은 에러
[root@hadoop01 sbin]# start-dfs.sh
/usr/local/hadoop-3.3.0/etc/hadoop/hadoop-env.sh에 아래 추가하여 해결
export HDFS_NAMENODE_USER="root"
export HDFS_DATANODE_USER="root"
export HDFS_SECONDARYNAMENODE_USER="root"
export YARN_RESOURCEMANAGER_USER="root"
export YARN_NODEMANAGER_USER="root"
'학습장 > Data Engineering' 카테고리의 다른 글
pyspark groupBy 샘플코드 (0) | 2021.03.01 |
---|---|
Sqoop ETL (0) | 2021.02.21 |
DataStage Job Xml export (0) | 2021.01.17 |
Cloudera 활용한 Hadoop 설치 (0) | 2021.01.10 |
Hadoop에 대하여.. (0) | 2021.01.10 |
댓글