※ HUE는 하둡을 편하게 관리할 수 있는 웹기반의 어플리케이션
주소 : http://gethue.com/
다운로드
$ wget https://dl.dropboxusercontent.com/u/730827/hue/releases/3.8.1/hue-3.8.1.tgz
설치 및 사용
[기본내용]
▶설치 OS = CentOS 6.5
▶desktop centos 6.5 은 설치하니 Default python version은 2.6 이다.
▶HUE 3.9 version 부터는 python 버젼이 달르고 gcc 에러 발생
▶HUE 3.8 version 설치
[설치]
-Dependency 설치
MAVEN 설치 (필요 버전 확인)
yum install libtidy libxml2-devel libxslt-devel
yum install openssl-devel cyrus-sasl-devel cyrus-sasl-gssapi
yum install ant
yum install mysql mysql-devel
yum install sqlite sqlite-devel
yum install python python-devel python-setuptools python-simplejson python-ldap*
yum install openldap openldap-*
yum install gcc gcc-*
yum install libxml2 libxml2-devel libxslt libxslt-devel
yum install cyrus-sasl cyrus-sasl-devel cyrus-sasl-gssapi
-INSATLL
$export PREFIX=/설치경로 make install
#chmod 755 /설치경로/hue 폴더
-PATH 등록
export HUE_HOME=위치
export PATH=$PATH:$HUE_HOME/build/env/bin
-Hadoop Config 설정
#vi $HADOOP_HOME/conf/hdfs-site.xml <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> |
#vi /appl/hadoop/conf/core-site.xml <property> <name>hadoop.proxyuser.유저아이디.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.유저아이디.groups</name> <value>*</value> </property> |
-Hue Config 설정
# vi 설치경로/hue/desktop/conf/hue.ini [user] # Webserver runs as this user server_user=리눅스 사용자 server_group=리눅스 그룹 # This should be the Hue admin and proxy user default_user=리눅스 사용자 # This should be the hadoop cluster admin default_hdfs_superuser=리눅스 사용자 http_host=0.0.0.0 http_port=사용할 port [hdfs_cluster] [[[default]]] fs_defaultfs=hdfs://지정한URI(나는 master.com으로):8020 webhdfs_url=https://mster.com:50070/webhdfs/v1 [[yarn 관련]] resourcemanager_host=master.com resourcemanager_api_url=http://master.com:8088 proxy_api_url=http://master.com:8088 history_server_api_url=http://master.com:19888 |
-Hue 실행
$ cd /hue폴더/build/env/bin
$ ./supervisor
※ 실행 화면
- 웨어러블 디바이스의 Raw 데이터를 일단위로 수집 서버에서 HDFS에 저장
- 이를 편리하게 웹으로 확인 및 관리하게 되었다.
'빅데이터' 카테고리의 다른 글
GrayLog (1) - 설명 (0) | 2017.04.20 |
---|---|
SPARK 설치 (0) | 2017.04.19 |
Hadoop Install (0) | 2017.04.19 |
JDK + Maven 설치 (0) | 2017.04.19 |
시작하기.... (0) | 2017.04.19 |