Hadoop-07-HDFS集群 基础知识 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件

发布于:2024-07-06 ⋅ 阅读:(38) ⋅ 点赞:(0)

章节内容

上一节完成:

  • Hadoop历史服务器配置
  • Hadoop历史日志聚集
  • Hadoop历史日志可视化

背景介绍

这里是三台公网云服务器,每台 2C4G,搭建一个Hadoop的学习环境,供我学习。
之前已经在 VM 虚拟机上搭建过一次,但是没留下笔记,这次趁着前几天薅羊毛的3台机器,赶紧尝试在公网上搭建体验一下。

注意,如果你和我一样,打算用公网部署,那一定要做好防火墙策略,避免不必要的麻烦!!!
请大家都以学习为目的,也请不要对我的服务进行嗅探或者攻击!!!

但是有一台公网服务器我还运行着别的服务,比如前几天发的:autodl-keeper 自己写的小工具,防止AutoDL机器过期的。还跑着别的Web服务,所以只能挤出一台 2C2G 的机器。那我的配置如下了:

  • 2C4G 编号 h121
  • 2C4G 编号 h122
  • 2C2G 编号 h123

在这里插入图片描述
请确保上一章节已经全部跑通!

HDFS 简介

HDFS (全称:Hadoop Distribute File System,Hadoop 分布式文件系统)是 Hadoop 核心组成,是分布式存储服务。
分布式文件系统横跨多台计算机,在大数据时代有着广泛的应用前景,它们为存储和处理超大规模数据提供所需的扩展能力。

HDFS分布式文件系统中的一种。

HDFS 通过统一的命名空间目录树来定位文件; 另外,它是分布式的,由很多服务器联合起来实现。集群中的服务器有各自的角色

  • 典型的 Master/Slave 架构 集群往往是 一个NameNode + 多个DataNodeHA下是2个NameNode)NameNode是主节点,DataNode是从节点。
  • 分块机制(block机制)HDFS中是按分块存储的,Hadoop2.x版本默认128MB一块
  • 命名空间(NameSpace)支持传统的文件组织结构,用户或程序可以创建目录,将文件保存到文件夹中。NameNode负责维护文件系统的名字空间,所有操作都会被NameNode记录下来。
  • NameNode元数据管理,元数据中记录每一个文件对应的block信息
  • DataNode数据存储,文件的各个block具体由DataNode节点承担,一个block会由多个DataNode进行存储。DataNode定时向NameNode来汇报自己的信息。
  • 副本机制。为了容错,每个block都有自己的副本。每个文件的block大小和副本系数都是可以配置的。副本系数可以在创建文件的时候指定,也可以在之后改变,副本数量默认是3个
  • 一次写入,多次写出。HDFS设计成一次写多次读的场景。且不支持修改,支持追加写入,但是不能随机写更新。

具体的组成结构如下图:
在这里插入图片描述

NameNode

NameNode(nn)HDFS集群管理者,Master

  • 维护管理HDFS的名称空间 NameSpace
  • 维护副本策略
  • 记录文件块Block的映射信息
  • 负责处理客户端的读写请求

DataNode

NameNode下达命令DataNode执行实际操作Slave

  • 保存实际数据
  • 负责数据块的读写

Client

  • 上传文件到HDFS的时候,Client负责将文件切分成Block,然后进程上传。
  • 请求NameNode交互,获取文件的位置信息
  • 读取或写入文件,与DataNode交互
  • Client可以使用一些命令来管理HDFS或者访问HDFS

在这里插入图片描述

HDFS 读数据

在这里插入图片描述

  • 客户端Distributed FileSystem 向 NameNode请求下载文件,NameNode通过查询元数据到文件块所在的DataNode地址。
  • 选一台DataNode(就近选择,然后随机),请求取数据
  • DataNode开始传输数据给客户端,从磁盘里读取数据输入流,以Packet单位来做校验。
  • 客户端以Packet为单位接收,在本地缓存,然后写入目标文件。

HDFS 写数据

在这里插入图片描述

  • 客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。
  • NameNode返回是否可以上传
  • 客户端请求第一个Block上传到哪几个DataNode服务器
  • NameNode返回3个DataNode节点,分别为 dn1, dn2, dn3
  • 客户端通过 FSDataOutputStream模块请求上传 dn1,dn1接到请求后会继续调用dn2,dn2再调用dn3。然后dn1,dn2、dn3逐级应答客户端。
  • 客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地缓存),以Packet为单位,dn1收到一个Packet就传给dn2,dn2给dn3,dn1每传一个Packet会放入一个确认队列等待确认。
  • 当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器

网站公告

今日签到

点亮在社区的每一天
去签到