博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
配置hadoop集群一
阅读量:4633 次
发布时间:2019-06-09

本文共 2487 字,大约阅读时间需要 8 分钟。

花了1天时间最终把环境搭建好了。整理了一下,希望对想学习hadoop的有所帮助。
资料下载:http://pan.baidu.com/s/1kTupgkn
包括了linux虚拟机。jdk, hadoop1.0
环境搭建准备工作:
hadoop_master 192.168.50.158
hadoop_slave    192.168.50.136
网络配置:
1:设置IP
2:重新启动网卡 service network restart.  验证命令 ifconfig
3:设置主机名 hostname hadoop 运行命令 vi /ect/sysconfig/network
4:把hostname和IP绑定
      运行命令 vi /etc/hosts   
192.168.50.158 master
192.168.50.136 slave
      验证:ping hadoop
5:关闭防火墙 service iptables stop
     关闭防火墙自己主动执行:  chkconfig iptables off
     验证: chkconfig --list |grep iptables
     
免password登陆ssh
1:ssh-keygen -t rsa产生的密钥位于~/.ssh目录中
2:cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys  本机就能够免password登录了
3:配置多机器面password登录
    拷贝id_rsa.pub到须要登录的机器上:    
scp .ssh
/
id_rsa.pub chenlb@
192.168
.
1.181
:
/
home
/
chenlb
/
id_rsa.pub 
    把文件的内容追加到authorized_keys上  
cat id_rsa.pub 
>>
 .ssh
/
authorized_keys
                                                             
   chmod 600 .ssh/authorized_keys
   配置完毕后ssh ip(对方的电脑)
配置环境变量
1:拷贝jdk到/user/local文件夹下
2:运行命令 chmod u+x jdk*.bin
3:vi /etc/profile 
      export JAVA_HOME = /user/local/jdk
      export PATH=.:$JAVA_HOME/bin:$PATH
      让配置文件生效: source /etc/profile
安装 hadoop
1:tar -zxvf hadoop.tar.gz
2:改名字 mv hadoop.1.2 hadoop
3:vi /etc/profile  
     export HADOOP_NAME=/user/local/hadoop
     path环境变量须要改动一下。

加入hadoop的bin

4:改动配置文件,配置文件在hadoop的conf文件夹下
   
   hadoop-env.sh

export JAVA_HOME=/usr/local/jdk/

也能够配置垃圾回收机制:

比如,配置Namenode时,为了使其可以并行回收垃圾(parallelGC)。 要把以下的代码增加到hadoop-env.sh :

export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}"

其他可定制的经常使用參数还包含:

    • HADOOP_LOG_DIR - 守护进程日志文件的存放文件夹。假设不存在会被自己主动创建。
    • HADOOP_HEAPSIZE - 最大可用的堆大小,单位为MB。

      比方。1000MB。 这个參数用于设置hadoop守护进程的堆大小。缺省大小是1000MB。

          

   
  core-site.xml

<configuration>

    <property>

        <name>fs.default.name</name>

        <value>hdfs://hadoop0:9000</value>   定义HadoopMaster的URI和port

        <description>change your own hostname</description>

    </property>

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/usr/local/hadoop/tmp</value>

    </property> 

</configuration>

 
   hdfs-site.xml

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

    <property>

        <name>dfs.permissions</name>

        <value>false</value>

    </property>

</configuration>
     
mapred-site.xml

<configuration>

    <property>

        <name>mapred.job.tracker</name>

        <value>hadoop0:9001</value> <!--hadoop0指的是你在hosts中配置的名字-->

        <description>change your own hostname</description>

    </property>

</configuration>

配置完毕后。假设是配置集群就须要在配置文件下的slaves和masters配置相应的datanode和secordaryNamenode。
5:对hadoop进行格式化  hadoop namenode -format
     格式化假设没有成功的话须要删除 /usr/local/hadoop/tmp目录
启动完毕后,能够输入 http://master:50070/dfshealth.jsp中能够查看到节点。

 

转载于:https://www.cnblogs.com/blfbuaa/p/6867086.html

你可能感兴趣的文章
Java学习笔记---字符类型
查看>>
SQL Server Extended Events 进阶 3:使用Extended Events UI
查看>>
Python3中对Dict的内存优化
查看>>
软件行业项目经理主要的职责是什么?(转)
查看>>
git笔记
查看>>
Java 内部类
查看>>
maven nexus 3 third party 构件上传
查看>>
wchar用wcout输出正常cout是?
查看>>
生成svg元素函数
查看>>
学习Modern UI for WPF
查看>>
lua单链表实现
查看>>
MySql按日期进行统计(前一天、本周、某一天)[转载]
查看>>
经常用得到的安卓数据库基类
查看>>
大智慧面试经验
查看>>
比特币脚本及交易分析 - 智能合约雏形
查看>>
kafka消息会不会丢失
查看>>
codeforces-1132 (div2)
查看>>
简单入门dos程序
查看>>
linux下occi操作oracle数据库,中文乱码的问题
查看>>
JS原型与原型链
查看>>