博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop集群hdfs添加磁盘操作
阅读量:2063 次
发布时间:2019-04-29

本文共 1183 字,大约阅读时间需要 3 分钟。

Hadoop集群hdfs添加磁盘操作

目前的环境是cdh。服务器部署在Azure;一台cdhmaster(一个namenode,一个datanode),四台cdhslave节点(各一个datanode)。

hdfs现状:

首先是在Azure控制台对每台服务器添加一块磁盘(我这添加的是4T)

 

在到服务器中对每台服务器进行添加磁盘操作:

因为在Linux中,常用2种分区表:

  1. MBR分区表(即主引导记录)
    所支持的最大分区:2T,而且对分区有限制:最多4个主分区或3个主分区加一个扩展分区 [fdisk命令操作]
  2. GPT分区表(即GUID分区表)
    是源自EFI标准的一种较新的磁盘分区表结构的标准,与MBR分区方式相比,具有如下优点:突破MBR 4个主分区限制,每个磁盘最多支持128个分区。支持大于2T的分区,最大可达18EB。 [parted命令操作]

使用 parted 建立大小超过2T的分区

磁盘默认在每台服务器上为 /dev/sde

  1. parted /dev/sde 可以输入p打印磁盘信息,查看分区的情况,找到起始和结束位置。
  2. mklabel gpt 设置分区类型为gpt
  3. mkpart primary 0% 100% primary指分区类型为主分区,0是分区开始位置,100%是分区结束位置。相同的命令为:mkpart primary 0-1 或者是:mkpart primary 0 XXXXXX结束的空间
  4. print 打印当前分区,查看分区设置是否正确
  5. quit 完成后用quit命令退出。
  6. mkfs.ext4 /dev/sde1 格式化磁盘,这里用ext4格式。
  7. mkdir /data3 && mount /dev/sde1 /data3/
  8. vim /etc/fstab 修改fstab,磁盘自动挂载。blkid命令查看磁盘uuid。在fstab追加到末尾行 UUID=a29c4966-019e-4a76-befb-221cdad95aef /data3 ext4 defaults 0 0

hdfs扩容操作

1. 首先在每一个分区的挂载目录[/data3]新建子目录/dfs/dn,如mkdir -p /data3/dfs/dn

2. 然后修改dn目录的权限:chown -R hdfs:hadoop /data3/dfs/dn

这样hdfs才能使用该目录(每一个分区都要新建/dfs/dn)

打开cloudera manager

datanode添加目录/data3/dfs/dn

找到“高级”,在右边的datanode卷选择策略中,选择“可用空间”,这样,后面的两个属性(“10G字节”和“0.75”)就会发挥作用,用于平衡各个卷中空间使用。

重启每个datanode

保存以上配置,然后重启hdfs,即可将hdfs扩容。

 

原文地址:

转载地址:http://yohlf.baihongyu.com/

你可能感兴趣的文章
作为一名软件测试工程师,需要具备哪些能力
查看>>
【Pyton】【小甲鱼】类和对象:一些相关的BIF(内置函数)
查看>>
【Pyton】【小甲鱼】魔法方法
查看>>
单元测试需要具备的技能和4大阶段的学习
查看>>
【Loadrunner】【浙江移动项目手写代码】代码备份
查看>>
Python几种并发实现方案的性能比较
查看>>
[Jmeter]jmeter之脚本录制与回放,优化(windows下的jmeter)
查看>>
Jmeter之正则
查看>>
【JMeter】1.9上考试jmeter测试调试
查看>>
【虫师】【selenium】参数化
查看>>
【Python练习】文件引用用户名密码登录系统
查看>>
学习网站汇总
查看>>
【Python】用Python打开csv和xml文件
查看>>
【Loadrunner】性能测试报告实战
查看>>
【面试】一份自我介绍模板
查看>>
【自动化测试】自动化测试需要了解的的一些事情。
查看>>
【selenium】selenium ide的安装过程
查看>>
【手机自动化测试】monkey测试
查看>>
【英语】软件开发常用英语词汇
查看>>
Fiddler 抓包工具总结
查看>>