整个Hadoop框架工作流程

发布时间:2022-07-05 发布网站:脚本宝典
脚本宝典收集整理的这篇文章主要介绍了整个Hadoop框架工作流程脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。

   HDFS文件存储系统,负责文件的上传与下载,包含NameNode(一个)和DataNode(多个)两个部分,其中,NameNode存储的是文件,即文件的存放位置,根据这个位置定位到节点;而DataNode才是真正负责存储数据文件的节点;

   mapreduce计算引擎,启动工作任务对数据进行加工和处理,包含整个map阶段reduce阶段以及其中系统的shuffle过程;

   yarn资源调度管理器,负责maPReduce工作任务的调度和命令的下达,他包含ResourceManagerNodeManager两个进程。其中,ResourceManage根据各节点的存储和工作情况来进行新任务的资源调度,而NodeManager则负责任务的命令下达。

脚本宝典总结

以上是脚本宝典为你收集整理的整个Hadoop框架工作流程全部内容,希望文章能够帮你解决整个Hadoop框架工作流程所遇到的问题。

如果觉得脚本宝典网站内容还不错,欢迎将脚本宝典推荐好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。