本站提供最佳css新浪新闻源码服务,欢迎转载和分享。

【山东短视频运营源码】【假qq红包源码】【取消药品溯源码】mapreduce源码书

2024-12-24 03:27:29 来源:易语言时间源码 分类:知识

1.MapReduce源码解析之InputFormat
2.如何分布式运行mapreduce程序
3.如何使用Python为Hadoop编写一个简单的MapReduce程序
4.Java开发书籍推荐(200多本)

mapreduce源码书

MapReduce源码解析之InputFormat

       导读

       深入探讨MapReduce框架的码书核心组件——InputFormat。此组件在处理多样化数据类型时,码书扮演着数据格式化和分片的码书角色。通过设置job.setInputFormatClass(TextInputFormat.class)等操作,码书程序能正确处理不同文件类型。码书InputFormat类作为抽象基础,码书山东短视频运营源码定义了文件切分逻辑和RecordReader接口,码书用于读取分片数据。码书本节将解析InputFormat、码书InputSplit、码书RecordReader的码书结构与实现,以及如何在Map任务中应用此框架。码书

       类图与源码解析

       InputFormat类提供了两个关键抽象方法:getSplits()和createRecordReader()。码书假qq红包源码getSplits()负责规划文件切分策略,码书定义逻辑上的码书分片,而RecordReader则从这些分片中读取数据。

       InputSplit类承载了切分逻辑,表示了给定Mapper处理的逻辑数据块,包含所有K-V对的取消药品溯源码集合。

       RecordReader类实现了数据读取流程,其子类如LineRecordReader,提供行数据读取功能,将输入流中的数据按行拆分,赋值为Key和Value。

       具体实现与操作流程

       在getSplits()方法中,python摇号 源码FileInputFormat类负责将输入文件按照指定策略切分成多个InputSplit。

       TextInputFormat类的createRecordReader()方法创建了LineRecordReader实例,用于读取文件中的每一行数据,形成K-V对。

       Mapper任务执行时,通过调用RecordReader的验证药品溯源码nextKeyValue()方法,读取文件的每一行,完成数据处理。

       在Map任务的run()方法中,MapContextImp类实例化了一个RecordReader,用于实现数据的迭代和处理。

       总结

       本文详细阐述了MapReduce框架中InputFormat的实现原理及其相关组件,包括类图、源码解析、具体实现与操作流程。后续文章将继续探讨MapReduce框架的其他关键组件源码解析,为开发者提供深入理解MapReduce的构建和优化方法。

如何分布式运行mapreduce程序

       ä¸€ã€ 首先要知道此前提 转载

       ã€€ã€€è‹¥åœ¨windows的Eclipse工程中直接启动mapreduc程序,需要先把hadoop集群的配置目录下的xml都拷贝到src目录下,让程序自动读取集群的地址后去进行分布式运行(您也可以自己写java代码去设置job的configuration属性)。

       ã€€ã€€è‹¥ä¸æ‹·è´ï¼Œå·¥ç¨‹ä¸­bin目录没有完整的xml配置文件,则windows执行的mapreduce程序全部通过本机的jvm执行,作业名也是带有“local"字眼的作业,如 job_local_。 这不是真正的分布式运行mapreduce程序。

       ã€€ã€€ä¼°è®¡å¾—研究org.apache.hadoop.conf.Configuration的源码,反正xml配置文件会影响执行mapreduce使用的文件系统是本机的windows文件系统还是远程的hdfs系统; 还有影响执行mapreduce的mapper和reducer的是本机的jvm还是集群里面机器的jvm

       ã€€ã€€äºŒã€ 本文的结论

       ã€€ã€€ç¬¬ä¸€ç‚¹å°±æ˜¯ï¼š windows上执行mapreduce,必须打jar包到所有slave节点才能正确分布式运行mapreduce程序。(有个需求是要windows上触发一个mapreduce分布式运行)

       ã€€ã€€ç¬¬äºŒç‚¹å°±æ˜¯ï¼š Linux上,只需拷贝jar文件到集群master上,执行命令hadoop jarPackage.jar MainClassName即可分布式运行mapreduce程序。

       ã€€ã€€ç¬¬ä¸‰ç‚¹å°±æ˜¯ï¼š 推荐使用附一,实现了自动打jar包并上传,分布式执行的mapreduce程序。

       ã€€ã€€é™„一、 推荐使用此方法:实现了自动打jar包并上传,分布式执行的mapreduce程序:

       ã€€ã€€è¯·å…ˆå‚考博文五篇:

       ã€€ã€€Hadoop作业提交分析(一)~~(五)

       ã€€ã€€å¼•ç”¨åšæ–‡çš„附件中EJob.java到工程中,然后main中添加如下方法和代码。

       ã€€ã€€public static File createPack() throws IOException {

       ã€€ã€€File jarFile = EJob.createTempJar("bin");

       ã€€ã€€ClassLoader classLoader = EJob.getClassLoader();

       ã€€ã€€Thread.currentThread().setContextClassLoader(classLoader);

       ã€€ã€€return jarFile;

       ã€€ã€€}

       ã€€ã€€åœ¨ä½œä¸šå¯åŠ¨ä»£ç ä¸­ä½¿ç”¨æ‰“包:

       ã€€ã€€Job job = Job.getInstance(conf, "testAnaAction");

       ã€€ã€€æ·»åŠ ï¼š

       ã€€ã€€String jarPath = createPack().getPath();

       ã€€ã€€job.setJar(jarPath);

       ã€€ã€€å³å¯å®žçŽ°ç›´æŽ¥run as java application 在windows跑分布式的mapreduce程序,不用手工上传jar文件。

       ã€€ã€€é™„二、得出结论的测试过程

       ã€€ã€€ï¼ˆæœªæœ‰ç©ºçœ‹ä¹¦ï¼Œåªèƒ½é€šè¿‡æ„šç¬¨çš„测试方法得出结论了)

       ã€€ã€€ä¸€. 直接通过windows上Eclipse右击main程序的java文件,然后"run as application"或选择hadoop插件"run on hadoop"来触发执行MapReduce程序的测试。

       ã€€ã€€1,如果不打jar包到进集群任意linux机器上,它报错如下:

       ã€€ã€€[work] -- ::, - org.apache.hadoop.mapreduce.Job - [main] INFO org.apache.hadoop.mapreduce.Job - map 0% reduce 0%

       ã€€ã€€[work] -- ::, - org.apache.hadoop.mapreduce.Job - [main] INFO org.apache.hadoop.mapreduce.Job - Task Id : attempt___m__0, Status : FAILED

       ã€€ã€€Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found

       ã€€ã€€at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:)

       ã€€ã€€at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:)

       ã€€ã€€at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:)

       ã€€ã€€at org.apache.hadoop.mapred.MapTask.run(MapTask.java:)

       ã€€ã€€at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:)

       ã€€ã€€at java.security.AccessController.doPrivileged(Native Method)

       ã€€ã€€at javax.security.auth.Subject.doAs(Subject.java:)

       ã€€ã€€at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:)

       ã€€ã€€at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:)

       ã€€ã€€Caused by: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found

       ã€€ã€€at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:)

       ã€€ã€€at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:)

       ã€€ã€€... 8 more

       ã€€ã€€# Error:后重复三次

       ã€€ã€€-- ::, - org.apache.hadoop.mapreduce.Job - [main] INFO org.apache.hadoop.mapreduce.Job - map % reduce %

       ã€€ã€€çŽ°è±¡å°±æ˜¯ï¼šæŠ¥é”™ï¼Œæ— è¿›åº¦ï¼Œæ— è¿è¡Œç»“果。

       ã€€ã€€

       ã€€ã€€2,拷贝jar包到“只是”集群master的$HADOOP_HOME/share/hadoop/mapreduce/目录上,直接通过windows的eclipse "run as application"和通过hadoop插件"run on hadoop"来触发执行,它报错同上。

       ã€€ã€€çŽ°è±¡å°±æ˜¯ï¼šæŠ¥é”™ï¼Œæ— è¿›åº¦ï¼Œæ— è¿è¡Œç»“果。

       ã€€ã€€3,拷贝jar包到集群某些slave的$HADOOP_HOME/share/hadoop/mapreduce/目录上,直接通过windows的eclipse "run as application"和通过hadoop插件"run on hadoop"来触发执行

       ã€€ã€€å’ŒæŠ¥é”™ï¼š

       ã€€ã€€Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found

       ã€€ã€€at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:)

       ã€€ã€€at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:)

       ã€€ã€€å’ŒæŠ¥é”™ï¼š

       ã€€ã€€Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountReducer not found

       ã€€ã€€

       ã€€ã€€çŽ°è±¡å°±æ˜¯ï¼šæœ‰æŠ¥é”™ï¼Œä½†ä»ç„¶æœ‰è¿›åº¦ï¼Œæœ‰è¿è¡Œç»“果。

如何使用Python为Hadoop编写一个简单的MapReduce程序

       MichaelG.Noll在他的Blog中提到如何在Hadoop中用Python编写MapReduce程序,韩国的gogamza在其Bolg中也提到如何用C编写MapReduce程序(我稍微修改了一下原程序,因为他的Map对单词切分使用tab键)。我合并他们两人的文章,也让国内的Hadoop用户能够使用别的语言来编写MapReduce程序。  首先您得配好您的Hadoop集群,这方面的介绍网上比较多,这儿给个链接(Hadoop学习笔记二安装部署)。HadoopStreaming帮助我们用非Java的编程语言使用MapReduce,Streaming用STDIN(标准输入)和STDOUT(标准输出)来和我们编写的Map和Reduce进行数据的交换数据。任何能够使用STDIN和STDOUT都可以用来编写MapReduce程序,比如我们用Python的sys.stdin和sys.stdout,或者是C中的stdin和stdout。  我们还是使用Hadoop的例子WordCount来做示范如何编写MapReduce,在WordCount的例子中我们要解决计算在一批文档中每一个单词的出现频率。首先我们在Map程序中会接受到这批文档每一行的数据,然后我们编写的Map程序把这一行按空格切开成一个数组。并对这个数组遍历按"1"用标准的输出输出来,代表这个单词出现了一次。在Reduce中我们来统计单词的出现频率。    PythonCode  Map:mapper.py  #!/usr/bin/envpythonimportsys#mapswordstotheircountsword2count={ }#inputcomesfromSTDIN(standardinput)forlineinsys.stdin:#removeleadingandtrailingwhitespaceline=line.strip()#splitthelineintowordswhileremovinganyemptystringswords=filter(lambdaword:word,line.split())#increasecountersforwordinwords:#writetheresultstoSTDOUT(standardoutput);#whatweoutputherewillbetheinputforthe#Reducestep,i.e.theinputforreducer.py##tab-delimited;thetrivialwordcountis1print'%s\t%s'%(word,1)  Reduce:reducer.py  #!/usr/bin/envpythonfromoperatorimportitemgetterimportsys#mapswordstotheircountsword2count={ }#inputcomesfromSTDINforlineinsys.stdin:#removeleadingandtrailingwhitespaceline=line.strip()#parsetheinputwegotfrommapper.pyword,count=line.split()#convertcount(currentlyastring)tointtry:count=int(count)word2count[word]=word2count.get(word,0)+countexceptValueError:#countwasnotanumber,sosilently#ignore/discardthislinepass#sortthewordslexigraphically;##thisstepisNOTrequired,wejustdoitsothatour#finaloutputwilllookmoreliketheofficialHadoop#wordcountexamplessorted_word2count=sorted(word2count.items(),key=itemgetter(0))#writetheresultstoSTDOUT(standardoutput)forword,countinsorted_word2count:print'%s\t%s'%(word,count)  CCode  Map:Mapper.c  #include#include#include#include#defineBUF_SIZE#defineDELIM"\n"intmain(intargc,char*argv[]){ charbuffer[BUF_SIZE];while(fgets(buffer,BUF_SIZE-1,stdin)){ intlen=strlen(buffer);if(buffer[len-1]=='\n')buffer[len-1]=0;char*querys=index(buffer,'');char*query=NULL;if(querys==NULL)continue;querys+=1;/*nottoinclude'\t'*/query=strtok(buffer,"");while(query){ printf("%s\t1\n",query);query=strtok(NULL,"");}}return0;}h>h>h>h>  Reduce:Reducer.c  #include#include#include#include#defineBUFFER_SIZE#defineDELIM"\t"intmain(intargc,char*argv[]){ charstrLastKey[BUFFER_SIZE];charstrLine[BUFFER_SIZE];intcount=0;*strLastKey='\0';*strLine='\0';while(fgets(strLine,BUFFER_SIZE-1,stdin)){ char*strCurrKey=NULL;char*strCurrNum=NULL;strCurrKey=strtok(strLine,DELIM);strCurrNum=strtok(NULL,DELIM);/*necessarytocheckerrorbut.*/if(strLastKey[0]=='\0'){ strcpy(strLastKey,strCurrKey);}if(strcmp(strCurrKey,strLastKey)){ printf("%s\t%d\n",strLastKey,count);count=atoi(strCurrNum);}else{ count+=atoi(strCurrNum);}strcpy(strLastKey,strCurrKey);}printf("%s\t%d\n",strLastKey,count);/*flushthecount*/return0;}h>h>h>h>  首先我们调试一下源码:  chmod+xmapper.pychmod+xreducer.pyecho"foofooquuxlabsfoobarquux"|./mapper.py|./reducer.pybar1foo3labs1quux2g++Mapper.c-oMapperg++Reducer.c-oReducerchmod+xMapperchmod+xReducerecho"foofooquuxlabsfoobarquux"|./Mapper|./Reducerbar1foo2labs1quux1foo1quux1  你可能看到C的输出和Python的不一样,因为Python是把他放在词典里了.我们在Hadoop时,会对这进行排序,然后相同的单词会连续在标准输出中输出.  在Hadoop中运行程序  首先我们要下载我们的测试文档wget页面中摘下的用php编写的MapReduce程序,供php程序员参考:Map:mapper.php  #!/usr/bin/php$word2count=array();//inputcomesfromSTDIN(standardinput)while(($line=fgets(STDIN))!==false){ //removeleadingandtrailingwhitespaceandlowercase$line=strtolower(trim($line));//splitthelineintowordswhileremovinganyemptystring$words=preg_split('/\W/',$line,0,PREG_SPLIT_NO_EMPTY);//increasecountersforeach($wordsas$word){ $word2count[$word]+=1;}}//writetheresultstoSTDOUT(standardoutput)//whatweoutputherewillbetheinputforthe//Reducestep,i.e.theinputforreducer.pyforeach($word2countas$word=>$count){ //tab-delimitedecho$word,chr(9),$count,PHP_EOL;}?>  Reduce:mapper.php  #!/usr/bin/php$word2count=array();//inputcomesfromSTDINwhile(($line=fgets(STDIN))!==false){ //removeleadingandtrailingwhitespace$line=trim($line);//parsetheinputwegotfrommapper.phplist($word,$count)=explode(chr(9),$line);//convertcount(currentlyastring)toint$count=intval($count);//sumcountsif($count>0)$word2count[$word]+=$count;}//sortthewordslexigraphically////thissetisNOTrequired,wejustdoitsothatour//finaloutputwilllookmoreliketheofficialHadoop//wordcountexamplesksort($word2count);//writetheresultstoSTDOUT(standardoutput)foreach($word2countas$word=>$count){ echo$word,chr(9),$count,PHP_EOL;}?>  作者:马士华发表于:--

Java开发书籍推荐(多本)

       整理了一份关于Java开发的电子书资源,共约本PDF版本,分享给需要的朋友们。

       全部免费获取,无需添加QQ,无需关注公众号,直接使用百度网盘链接下载。

       请在下载后给予我一个赞,顺便分享给还在寻找资源的兄弟们。

       以下目录展示了部分书单内容,以供参考:

       Java

       - 天学通Java

       - Effective Java中文版(第2版)

       - Head First Java 中文高清版

       - EXPERT.ONE.ON.ONE.J2EE.DEVELOPMENT.WITHOUT.EJB-中文

       - Java 程序员进阶之路(亮白版)

       - Hibernate实战(第2版)

       - Java 8 实战

       - Java8函数式编程

       - Java8中的炫酷特性和Java9中的新特性-杨晓峰

       - JavaNIO(中文版)

       - JAVA优化编程

       - Java加密与解密的艺术 梁栋

       - Java基础与案例开发详解

       - Java学习路线图:Java必须知道的个问题

       - Java并发编程的艺术

       - JVM

       - Java虚拟机基础教程 高清中文版PDF

       - Java虚拟机并发编程

       - Java虚拟机规范(Java SE 8版)(带书签完整版)

       - 实战JAVA虚拟机 JVM故障诊断与性能优化

       - 揭秘Java虚拟机-JVM设计原理与实现

       - 深入理解Java虚拟机JVM高级特性与最佳实践第3版(周志朋)

       - 解析Java虚拟机器开发:权衡优化、高效和安全的最优方案

       Kubernetes

       - Kubernetes实战 ,吴龙辉 ,P

       - Kubernetes开源书

       - Kubernetes指南(Kubernetes Handbook)

       - Kubernetes权威指南第2版

       - Kubernetes经典实例

       - 阿里云深入浅出Kubernetes项目实战手册

       - 基于Kubernetes的容器云平台实战

       Linux

       - linux常用命令大全

       - Linux宝典

       - Linux环境编程:从应用到内核

       - LINUX防火墙(原书第3版)

       - Linux高级程序设计中文第三版杨宗德--人电出版社

       - [Linux命令详解词典].施威铭研究室.扫描版

       - 深入Linux内核架构 (图灵程序设计丛书·LinuxUNIX系列)

       - 鸟哥的LINUX私房菜_基础学习篇(第三版)

       - 鸟哥的LINUX私房菜:服务器架设篇 (第二版)

       MyBatis

       - MyBatis从入门到精通

       - Spring+MVC+MyBatis企业应用实战

       - MyBatis技术内幕

       - 深入浅出MyBatis技术原理与实战

       - Spring+MyBatis企业应用实战

       Netty

       - Netty实战中文高清版

       - Netty权威指南 第2版 带书签目录 完整版

       - Netty进阶之路 跟着案例学Netty_完整版

       Redis

       - Redis入门指南 第2版

       - Redis实战

       - Redis开发与运维-付磊

       - Redis深度历险:核心原理和应用实践

       - redis设计与实现

       - 深入理解Redis

       Spring

       - Spring Security实战 - 陈木鑫

       - Spring.2.0核心技术与最佳实践.廖雪峰.扫描版

       - Spring从入门到精通

       - Spring5高级编程

       - Spring实战(第4版文字版)

       - Spring揭秘

       - Spring源码深度解析

       - spring高级程序设计

       Spring Boot

       - Spring Boot 2+Thymeleaf企业应用实战

       - Spring技术内幕:深入解析Spring架构与设计原理

       - 精通spring - Mastering Spring

       - Spring Boot 2精髓(高清版)

       - Spring Boot企业级应用开发实战

       - Spring Boot+Vue全栈开发实战

       - Spring Boot开发实战

       - SpringBoot揭秘+快速构建微服务体系

       - 微服务实战:Dubbox+Spring Boot+Docker

       - 一步一步学Spring Boot 2微服务项目实战

       - 微服务架构实战 基于Spring Boot Spring Cloud Docker

       - 微服务架构基础(Spring Boot+Spring Cloud+Docker)

       - 深入实践Spring Boot.陈韶健

       Spring Cloud

       - Spring Cloud 微服务架构进阶

       - Spring Cloud与Docker高并发微服务架构设计实施

       - Spring Cloud与Docker微服务架构实战

       - Spring Cloud微服务全栈技术与案例解析

       - Spring Cloud微服务实战

       - Spring Cloud微服务架构开发实战

       - 疯狂Spring Cloud微服务架构实战

       - 重新定义Spring Cloud实战

       Zookeeper

       - Zookeeper 分布式过程

       - 从Paxos到Zookeeper 分布式一致性原理与实践

       其他

       - tomcat内核设计剖析

       - 大数据之路:阿里巴巴大数据实践

       - Hadoop大数据分析与挖掘实战

       - Git入门与实践完整版

       - Hadoop权威指南(第2版)

       - 构建工具

       - Maven实战

       - 架构

       - App后台开发运维和架构实践

       - 亿级流量网站架构核心技术

       - 数据结构和算法

       - Docker全攻略

       - Elasticsearch大数据搜索引擎

       - Git版本控制管理第2版(美)罗力格

       - Hadoop技术内幕 深入解析HADOOP COMMON和HDFS架构设计与实现原理

       - Hadoop技术内幕+深入理解MapReduce架构设计与实现原理

       - Hadoop技术内幕深入解析YARN架构设计与实现原理

       - 大话数据结构

       - 算法导论

       - Git权威指南-目录完美-完整版

       - 大话设计模式

       - 设计模式

       - 大厂笔试真题+答案

       - 人件(高清中英文合并版)

       - 代码整洁之道

       - 多处理器编程的艺术

       - 程序开发心理学(银年纪念版)

       - 计算机程序设计艺术(第一卷)高清中文版

       - 编程之美-完整版

       - 计算机程序设计艺术(第三卷)高清中文版

       - 计算机程序设计艺术(第二卷)高清中文版

【本文网址:http://04.net.cn/html/68e345196480.html 欢迎转载】

copyright © 2016 powered by 皮皮网   sitemap