服务器之家

服务器之家 > 正文

Hadoop组件简介

时间:2021-01-12 14:12     来源/作者:动力节点

安装hbase

首先下载hbase的最新稳定版本

 http://www.apache.org/dyn/closer.cgi/hbase/

安装到本地目录中,我安装的是当前用户的hadoop/hbase中

tar -zxvf hbase-0.90.4.tar.gz

单机模式

修改配置文件

conf/hbase_env.sh

配置jdk的路径

修改conf/hbase-site.xml

hbase.rootdir

file:///home/${user.name}/hbase-tmp

完成后启动

bin/start-hbase.sh

启动后

starting master, logging to/home/lgstar888/hadoop/hbase0.9/bin/../logs/hbase-lgstar888-master-ubuntu.out

然后执行

bin/hbase shell

输入status

Hadoop组件简介

如果输入exit则退出

hadoop与google一样,都是小孩命名的,是一个虚构的名字,没有特别的含义。从计算机专业的角度看,hadoop是一个分布式系统基础架构,由apache基金会开发。hadoop的主要目标是对分布式环境下的“大数据”以一种可靠、高效、可伸缩的方式处理。设想一个场景,假如您需要grep一个100tb的大数据文件,按照传统的方式,会花费很长时间,而这正是hadoop所需要考虑的效率问题。  

关于hadoop的结构,有各种不同的说法。我们这里简单的理解为hadoop主要由三部分组成:hdfs(hadoopdistributed file system),mapreduce与hbase。

1.hadoop组件之一:hdfs分布式文件系统具有哪些优点?

  hdfs作为一种分布式文件系统,它和现有的分布式文件系统有很多共同点。比如,hadoop文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连。对于client端而言,hdfs就像一个传统的分级文件系统,可以创建、删除、移动或重命名文件等等。与此同时,hdfs与其他的分布式文件系统的区别也是显而易见的。

  首先,hdfs设计目标之一是适合运行在通用硬件(commodityhardware)上的分布式文件系统。hdfs假设的硬件错误不是异常,而是常态。因为hdfs面向的是成百上千的服务器集群,每台服务器上存储着文件系统的部分数据,并且这些机器的价格都很低廉。这就意味着总是有一部分硬件因各种原因而无法工作。因此,错误检测和快速、自动的恢复是hdfs最核心的架构目标。从这个角度说,hdfs具有高度的容错性。

  第二,hdfs的另一个设计目标是支持大文件存储。与普通的应用不同,hdfs应用具有很大的数据集,一个典型hdfs文件大小一般都在g字节至t字节。这就意味着hdfs应该能提供比较高的数据传输带宽与数据访问吞吐量。相应的,hdfs开放了一些posix的必须接口,容许流式访问文件系统的数据。

  第三,hdfs还要解决的一个问题是高数据吞吐量。hdfs采用的是“一次性写,多次读”这种简单的数据一致性模型。换句话说,文件一旦建立后写入,就不需要再更改了。网络爬虫程序就很适合使用这样的模型。

  第四,移动计算环境比移动数据划算。hdfs提供了api,以便把计算环境移动到数据存储的地方,而不是把数据传输到计算环境运行的地方。这对于数据大文件尤其适用,可以有效减少网络的拥塞、提高系统的吞吐量。

  hdfs的体系结构与工作流程

  下面简单看一下hdfs的结构。图1所示为hdfs的体系结构图。hdfs采用的是master/slave架构。

  namenode节点作为master服务器,有三部分功能。第一:处理来自客户端的文件访问。第二:管理文件系统的命名空间操作,如'打开'、'关闭'、'重命名'等。第三:负责数据块到数据节点之间的映射。从这个意义上说,它扮演中心服务器的角色。

  datanode节点作为slave服务器,同样有三部分功能。第一:管理挂载在节点上的存储设备。第二:响应客户端的读写请求。第三:从内部看,每个文件被分成一个或多个数据块,被存放到一组datanode,在namenode的统一调度下进行数据块的创建、删除和复制。

Hadoop组件简介

  图1 hdfs体系结构图

  hdfs采用java语言开发,因此任何支持java的机器都可以部署namenode或datanode。相应地,gnu/linux操作系统支持namenode与datanode。一个典型的部署场景是,一台gnu/linux操作系统上运行一个namenode实例,作为master中心服务器。而集群中的其它gnu/linux操作系统分别运行一个datanode实例,作为slave服务器集群。

2.hadoop组件之二:什么是mapreduce编程模型,mapreduce的工作流程是什么?

  mapreduce是一种编程模型,用于大规模数据集(大于1tb)的并行运算。mapreduce的设计目标是方便编程人员在不熟悉分布式并行编程的情况下,将自己的程序运行在分布式系统上。

  mapreduce的命名规则由两个术语组成,分别是map(映射)与reduce(化简)。这些术语来自于列表处理语言,如:lisp,scheme,或ml。从概念上来讲,mapreduce将输入元素列表(inputlist)转换成输出元素列表(output list),按照map与reduce规则各一次。

  从mapreduce框架的实现角度看,mapreduce程序有着两个组件:一个实现了mapper,另一个实现了reducer。

  第一次叫mapping,如图2所示。mapreduce将inputlist作为mapping函数的输入参数,经过处理,把结果返回给outputlist。举例来说,有一个函数toupper(str),用来返回输入字符串的大写版本。那么这里的inputlist指的是转换前的常规字符串列表,mapping function指的是toupper函数,而outputlist指的是转换后的大写字符串列表。值得注意的是,在这里mapping并没有改变输入字符串列表,而是返回一个新的字符串列表。

Hadoop组件简介

  图2 map函数处理

  第二次叫reducing,如图3所示。mapreduce将inputlist作为reducing函数的输入参数,经过迭代处理,把这些数据汇集,返回一个输出值给outputvalue。从这个意义上来说,reducing一般用来生成”总结“数据,把大规模的数据转变成更小的总结数据。例如,"+"可以用来作一个reducing函数,去返回输入数据列表的值的总和。

Hadoop组件简介

  图3 reduce函数处理

  从工作流程来讲,mapreduce对应的作业job首先把输入的数据集切分为若干独立的数据块,并由map组件以task的方式并行处理。处理结果经过排序后,依次输入给reduce组件,并且以task的形式并行处理。mapreduce对应的输入输出数据由hdfs的datanode存储。mapreduce对应的job部署在master服务器,由masterjobtracker负责task的调度,监控,重新执行失败的任务等等。mapreduce对应的job部署在若干不同的slave服务器,每个集群节点含一个slave tasktracker,负责执行由master指派的任务。

  hadoop框架由java实现的,它提供了两种主要工具。hadoopstreaming是一种运行作业的实用工具,它允许用户创建和运行任何可执行程序(例如:shell工具)来做为mapper和reducer。hadoop pipes是一个与swig兼容的c++ api(没有基于jnitm技术),它也可用于实现map/reduce应用程序。这样,开发人员就可以利用mapreduce框架,开发分布式应用程序,运行在由上千个商用机器组成的大型集群上,并以一种可靠容错的方式并行处理上t级别的数据集。

hadoop为企业来带了什么?

  如今,“大数据”这一术语在it经理人中变得越来越流行。美国国家海洋与大气管理局noaa利用“大数据”进行气象、生态系统、天气和商务研究。《纽约时报》使用“大数据”工具进行文本分析和web信息挖掘。迪斯尼则利用它们关联和了解跨不同商店、主题公园和web资产的客户行为。

  “大数据”不仅适用于大型企业,而是适用于各种不同规模的企业。例如,通过评估某位客户在网站上的行为,来更好地了解他们需要什么支持或寻找什么产品,或者弄清当前天气和其他条件对于送货路线和时间安排的影响。

  面对“大数据”,hadoop为揭示深奥的企业与外部数据的关键内幕提供了基础。从技术上看,hadoop分布式文件系统(hdfs)保证了大数据的可靠存储,而另一hadoop核心组件mapreduce则提供高性能并行数据处理服务。这两项服务提供了一个使对结构化和复杂“大数据”的快速、可靠分析变为现实的基础。

  hadoop已经迅速成长为首选的、适用于非结构化数据的大数据分析解决方案。基于hadoop、利用商品化硬件对海量的结构化和非结构化数据进行批处理,给数据分析领域带来了深刻的变化。通过挖掘机器产生的非结构化数据中蕴藏的知识,企业可以做出更好的决策,促进收入增长,改善服务,降低成本。

  google与hadoop有着千丝万缕的联系。如前所述,hadoop主要是由hdfs、mapreduce和hbase组成。而hdfs是google file system(gfs)的开源实现,mapreduce是googlemapreduce的开源实现,hbase是googlebigtable的开源实现。hadoop分布式框架很有创造性,而且有极大的扩展性,使得google在系统吞吐量上有很大的竞争力。因此apache基金会用java实现了一个开源版本,支持fedora、ubuntu等linux平台。

  考虑到hadoop在应对大规模非结构型数据中所起到的重要作用,微软也不得不放下架子,近日宣布开发一个兼容windowsserver与windows azure平台的hadoop开源版本。

  ibm宣布在hadoop上建立新的存储架构,作为群集运行db2或oracle数据库,目的是让应用程序,支持高性能分析,数据仓库应用程序和云计算的目的。

  emc也推出了世界上第一个定制的、高性能的hadoop专用数据协同处理设备——greenplumhd数据计算设备,为客户提供了最强大、最高效率的方法,充分挖掘大数据的价值。

  互联网搜索巨头百度也在考虑使用hadoop。不过,出于性能与安全的考虑,百度在采用hadoop架构的时候,将hadoop计算层进行了重新编写。

  总结:

  hadoop作为一种分布式基础架构,可以使用户在不了解分布式底层细节的情况下,开发分布式程序。

  关于hadoop的价值,思科的jamesurquhart指出:“hadoop可以说是不涉及任何现有专利的开源项目在企业软件方面所取得的首个里程碑式成功。”在业界,hadoop也赢得“庞大数据问题的通用解决方案”的头衔。我们不得不说,hadoop前途不可估量。

原文链接:http://blog.sina.com.cn/s/blog_9c6852670102wwyp.html

标签:

相关文章

热门资讯

2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全 2019-12-26
Intellij idea2020永久破解,亲测可用!!!
Intellij idea2020永久破解,亲测可用!!! 2020-07-29
背刺什么意思 网络词语背刺是什么梗
背刺什么意思 网络词语背刺是什么梗 2020-05-22
歪歪漫画vip账号共享2020_yy漫画免费账号密码共享
歪歪漫画vip账号共享2020_yy漫画免费账号密码共享 2020-04-07
苹果12mini价格表官网报价 iPhone12mini全版本价格汇总
苹果12mini价格表官网报价 iPhone12mini全版本价格汇总 2020-11-13
返回顶部