博客
关于我
《大数据: Hadoop(HDFS) 读写数据流程分析》
阅读量:256 次
发布时间:2019-03-01

本文共 445 字,大约阅读时间需要 1 分钟。

HDFS数据写入流程概述

Hadoop Distributed File System (HDFS) 作为一种分布式存储系统,其数据写入流程涉及多个关键组件和步骤。以下将从客户端和服务端两个维度详细阐述HDFS的数据写入过程。

  • 1. 服务端启动HDFS组件
  • a. NameNode (NN) 和 DataNode (DN) 的启动
  • b. NameNode 处理高级功能
  • 2. 客户端初始化文件系统客户端
  • a. 客户端与 NameNode 连接
  • b. 客户端获取文件系统信息
  • 3. 数据上传前的准备工作
  • a. 文件路径校验
  • b. 权限检查
  • 4. 数据块大小和副本数配置
  • a. 客户端设置默认块大小(0-128M)
  • b. 自定义副本数(默认为3)
  • 5. 数据块上传过程
  • a. NameNode 返回目标 DataNode 节点列表
  • b. 客户端选择最近网络的 DataNode 进行数据传输
  • 6. 数据块传输与写入
  • a. DataNode 接收并存储数据块
  • b. 数据块校验与复制(根据副本数)

转载地址:http://lkut.baihongyu.com/

你可能感兴趣的文章
ok6410内存初始化
查看>>
Okhttp3添加拦截器后,报错,java.io.IOException: unexpected end of stream on okhttp3.Address
查看>>
OKR为什么到今天才突然火了?
查看>>
ollama本地部署DeepSeek(Window图文说明)
查看>>
onCreate()方法中的参数Bundle savedInstanceState 的意义用法
查看>>
OneASP 安全公开课,深圳站, Come Here, Feel Safe!
查看>>
OneBlog Shiro 反序列化漏洞复现
查看>>
one_day_one--mkdir
查看>>
ONI文件生成与读取
查看>>
onlyoffice新版5.1.2版解决中文汉字输入重复等问题
查看>>
oobbs开发手记
查看>>
OPEN CASCADE Curve Continuity
查看>>
Open Graph Protocol(开放内容协议)
查看>>
Open vSwitch实验常用命令
查看>>
Open WebUI 忘了登入密码怎么办?
查看>>
open-vm-tools-dkms : 依赖: open-vm-tools (>= 2:9.4.0-1280544-5ubuntu3) 但是它将不会被安装
查看>>
Openbox-桌面图标设置
查看>>
opencart出现no such file or dictionary
查看>>
opencv Mat push_back
查看>>
opencv videocapture读取视频cap.isOpened 输出总是false
查看>>