大数据系统能取代实时历史数据库实时同步吗

当今时代,数据不再昂贵,但从海量数据中获取价值变得昂贵,而要及时获取价值则更加昂贵,这正是大数据实时计算越来越流行的原因。以百 分点公司为例,在高峰期每秒钟会有近万HTTP请求发送到百分点服务器上,这些请求包含了用户行为和个性化推荐请求。如何从这些数据中快速挖掘用户兴趣偏 好并作出效果不错的推荐呢?这是百分点推荐引擎面临的首要问题。本文将从系统架构和算法两方面全介绍百分点公司在实时计算方面的经验和心得体会,供读者参 考。
a)&实时计算架构
图&1百分点大数据平台原理示意图
工欲善其事,必先利其器。一个稳定可靠且高效的底层架构是实时计算的必要基础。图&1给出了百分点数据大平台的总体框架,如图所示,大数据平台包含数据存储和数据处理两个层次。
存储服务层提供了数据处理层需要的各类分布式存储,包括分布式文件系统(Hadoop&HDFS)、分布式SQL数据库(MySQL)、分布式 NoSQL数据库(Redis、MongoDB、HBase)、分布式消息队列(Apache&Kafka)、分布式搜索引擎(Apache&Solr) 以及必不可少的Apache&Zookeeper。
数据处理层由四个部分组成。其中Web应用云包含了所有直接面对用户的Web服务,每个Web应用都会产生Web日志以及其他实时数据,这些数据一 方面会及时交由实时计算框架进行处理,另一方面也会定期同步至离线计算框架;实时计算框架会处理接收到的实时数据,并将处理结果输出到数据查询框架或者离 线计算框架;离线计算框架则定期对数据进行处理,并将处理结果输出至数据查询框架;数据查询框架提供了一系列应用接口供程序调取需要的各项数据,同时提供 了一些Web工具帮助业务人员对海量数据进行统计、汇总和分析。
在百分点大数据平台中,与实时计算密切相关的有实时计算框架和数据查询框架,这部分的组件架构和数据流如图&2所示。
图&2实时计算框架和数据查询框架示意
从图上可以看出,数据采集服务会将收集到的实时数据推送到消息队列Kafka中;Kafka中的数据会被两个处理平台 BDM&CEP(Big&Data&Management&Complex&Event&Processing)和Storm消费并处理。Storm是当 下比较流行的开源流处理框架,百分点公司在2013年中开始使用Storm进行数据清洗、统计和一部分分析任务。在引入Storm之前,百分点所有的实时 计算都是基于BDM&CEP进行的,它是我们基于中间件ICE开发的一套流处理平台。BDM&CEP包含有四类组件:dispatcher负责从 Kafka中读取消息,根据消息内容分发给相应的worker;worker复杂处理接收到的消息,并将处理结果传递给其他worker或者输出到各类存 储服务中;config负责维护dispatcher和worker的交互关系和配置信息,并在交互关系或配置更新时及时通知dispatcher和 worker;monitor负责监控dispatcher和worker的运行情况,把监控信息提交给Ganglia,monitor还负责系统异常时 的报警,以及dispatcher和worker发生故障时进行重启和迁移。数据查询框架由图中最下层的三个组件组成,其中 BDM&DS(Data&Source)封装了一系列的数据查询逻辑并以REST&API和ICE服务的形式供各种应用调 用;BDM&OLAP(Online&Analytical&Processing)提供了实时查询用户行为和标签明细,以及近实时的用户多维度统计、汇 总和分析功能,这些功能是以REST&API和Web应用方式提供的;BDM&Search是对Solr和HBase的一次封装,以REST&API和 ICE服务方式对外提供近实时搜索功能。
百分点公司的主要服务都是运行在这套架构上的,它拥有良好的稳定性和扩展性,一般来说只需要增加水平扩展结点即可提高数据处理能力,这为百分点业务的稳定发展奠定了技术基础。
b)&实时计算算法
要真正实现大数据实时计算,光有框架是不行的,还必须针对特定业务开发特定的处理流程和算法。相比较离线计算而言,实时计算在算法方面需要考虑的更 多,这是因为实时计算能够用到的存储资源远不如离线,而且处理过程的时间限制要比离线计算严格,这都要求实时计算算法必须做相当多的优化。在这一节中,笔 者将以海量计数问题为例介绍百分点公司在实时计算算法方面的经验。
目前,百分点数据平台上包含了近千万的电商单品数据,实时追踪这些单品的浏览和交易数据是必须的,这也是做个性化推荐、商品画像、销量预测和用户画 像等业务的必要前提。我们的问题是:如何设计一种算法使得我们可以实时查看任意单品最近24小时的浏览量?这个问题描述起来很简单,但稍加思索就会发现做 起来并不容易。下面我们先给出一个简单方案,而后按照一定的原则逐步精化到最佳方案。
c)&简单方案
图&3按秒计数方案
看到这个问题时,大部分读者会很快想到如图&3所示的算法方案。图中红色、蓝色和绿色的方块分别表示不同的单品。在这个方案中,我们为每个单品保存一份浏览信息,它包含两个数据结构:
d)&历史浏览量列表(简称历史),一个列表,列表中每个元素包含一个时间戳和一个整数,分别代表过去24小时中的某一秒及这一秒钟的浏览量,按时 间顺序排序。这个列表的最长会包含24*个元素,但一般情况下极少有单品时时刻刻都被浏览,我们可以假设这个列表的平均长度不超过 10000。
e)&累计浏览量(简称累计量),一个整数,代表截止到最后一次访问时的浏览量。
如图所示,假设蓝色单品对应的数据是&[(t1,&a1),&(t2,&a2),&&,&(tn,&an)]和A。这表示t1时刻的该单品浏览量是a1,t2时刻是a2,tn是最后一次记录到浏览该单品的时刻,浏览量是an。截止到tn,该单品的总浏览量是A。
当单品浏览源源不断进入到消息队列时,处理进程(或线程)P1,P2&会实时读取到这些信息,并修改对应单品的数据信息。例如,P1读取到t时刻对蓝色单品的浏览记录时,会进行下面的操作:
f)&得到当前时刻ct;
g)&对数据库中蓝色单品数据加锁,加锁成功后读取出数据,假设历史是[(t1,&a1),&(t2,&a2),&&,&(tn,&an)],累计量是A;
h)&累计量递增,即从A修改为A+1
i)&如果ct=tn,则更新历史为[(t1,&a1),&(t2,&a2),&&,&(tn,&an+1)],否则更新为 [(t1,&a1),&(t2,&a2),&&,&(tn,&an),&(ct,1)];最后删除时间戳小于ct-24*3600的列表元素,删除的同时 从累计量中减去对应时刻的浏览量,例如只有元素t1&&ct-24*3600,则操作完成后的浏览量为A+1-a1;
j)&将新的历史和累计量输出至数据库,释放锁。
不难验证这个方案是可以正确得出每个单品24小时内的浏览量的,并且只要在资源(计算、存储和网络)充足的情况下,数据库中单品的浏览量是实时更新的。这个方案也是分布式实时计算中最简单最常见的一种模式。
图&4不包含锁的方案
第一个方案中需要对数据库加锁,无论加锁粒度多细,都会严重影响计算效率。虽然像Redis一类的内存数据库提供了incr这样的原子操作,但这种操作多数情况下只适用于整型数据,并不适合本问题的历史数据。
要想提高实时处理效率,避免锁是非常重要的。一种常见的做法是将并行操作串行化,就像MapReduce中的Reduce阶段一样,将key相同的 数据交由同一个reducer处理。基于这个原理,我们可以将方案改造为如图&4所示,我们新增一个数据分发处理过程,它的作用是保证同一个单品的所有数 据都会发送给同一个处理程序。例如将蓝色单品交由P1处理,红色交由P2处理,绿色交由P3处理。这样P1在处理过程中不需要对数据库加锁,因为不存在资 源竞争。这样可以极大的提高计算效率,于是整个计算过程变为:
l)&得到当前时刻ct;
m)&读取数据库中蓝色单品信息,假设历史是[(t1,&a1),&(t2,&a2),&&,&(tn,&an)],累计量是A;
n)&累计递增,即从A修改为A+1
o)&如果ct=tn,则更新历史为[(t1,&a1),&(t2,&a2),&&,&(tn,&an+1)],否则更新为 [(t1,&a1),&(t2,&a2),&&,&(tn,&an),&(ct,1)];最后删除时间戳小于ct-24*3600的列表元素,删除的同时 从累量中减去对应时刻的浏览量;
p)&将新的历史和累计量输出至数据库。
步骤b)和e)省去了锁操作,整个系统的并发性和吞吐量会得到大大提高。当然,没有免费的午餐,这种方案的缺点在于存在单点隐患,例如一旦P1由于 某些原因挂掉了,那么蓝色单品的数据将得不到及时处理,计数结果将无法保证实时。这种计算过程对系统监控和故障转移会有很高的要求。
q)&数据分层
图&5带有本地缓存的方案
方案二已经可以大大提高计算效率,但这还不够,我们可以看到在计算步骤b)和e)中总是要把历史和累计量同时从数据库中读出或写入,实际上这是没有 必要的,因为只有累计量才是外部必须使用的数据,而历史只是算法的中间数据。这样,我们可以区别对待历史和累计量,我们将历史和累计量都缓存在计算进程 中,定期更新历史至数据库,而累计量则实时更新。新的方案如图&5所示,计算过程变为:
r)&得到当前时刻ct;
s)&如果本地没有蓝色单品的信息,则从数据库中读取蓝色单品信息;否则直接使用本地缓存的信息。假设历史是[(t1,&a1),&(t2,&a2),&&,&(tn,&an)],累计量是A;
t)&累计量递增,即从A修改为A+1
u)&如果ct=tn,则更新历史为[(t1,&a1),&(t2,&a2),&&,&(tn,&an+1)],否则更新为 [(t1,&a1),&(t2,&a2),&&,&(tn,&an),&(ct,1)];最后删除时间戳小于ct-24*3600的列表元素,删除的同时 从累计量中减去对应时刻的浏览量;
v)&将新的累计量输出至数据库;如果满足一定的条件(例如上次输出时间足够久远,或者处理的消息量达到一定数量),则将历史输出至数据库。
这种方案可以大大降低数据库压力、数据IO和序列化反序列化次数,从而提高整个系统的处理效率。数据分层实际上是计算机中一种常用的路数,例如硬件 中的高速缓存/内存/磁盘,系统IO中的缓冲区/磁盘文件,数据库的内存索引、系统DNS缓存等等。我们使用的开源搜索引擎Solr就使用了同样的思路达 到近实时索引。Solr包含磁盘全量索引和实时增加的内存增量索引,并引入了&soft提交&的方式更新新索引。新数据到达后,Solr会使用 &soft&提交的方式更新内存增量索引,在检索的时候通过同时请求全量索引和增量索引并合并的方式获得到最新的数据。之后会在服务器空闲的时 候,Solr会把内存增量索引合并到磁盘全量索引中保证数据完整。
当然,这种方案也对系统的稳定性提出了更高的要求,因为一旦P1挂掉那么它缓存的数据将丢失,及时P1及时重启,这些数据也无法恢复,那么在一段时间内我们将无法得到准确的实时浏览量。
现在,我们来考虑存储资源问题。假设时间戳和整型都用long类型(8字节)保存,那么按照方案一中的估计,我们对每个单品的需要记录的数据大小约 为10000&(8+8)+8=16008字节&156KB,1000万单品的数据总量将超过1T,如果考虑到数据库和本地缓存因素,那么整个系统需要的 存储量至少是2T!这对于计数这个问题而言显然是得不偿失的,我们必须尝试将数据量降低,在这个问题中可行的是降低历史的存储精度。我们将历史定义为小时 级别精度,这样每个单品的历史至多有24个,数据量最多392字节,1000万单品的信息总量将变为3.6G,系统总的存储量不超过8G,这是可以接受 的。如果考虑用int类型代替long类型存储时间(小时数),则存储量可以进一步降低到不足6G。这样新的计算过程变为:
x)&得到当前时刻精确到小时的部分ct;
y)&如果本地没有蓝色单品的信息,则从数据库中读取蓝色单品信息;否则直接使用本地缓存的信息。假设历史是[(t1,&a1),&(t2,&a2),&&,&(tn,&an)],累计量是A;
z)&累计量递增,即从A修改为A+1
aa)&如果ct=tn,则更新历史为[(t1,&a1),&(t2,&a2),&&,&(tn,&an+1)],否则更新为 [(t1,&a1),&(t2,&a2),&&,&(tn,&an),&(ct,1)];最后删除小时数小于ct-24的列表元素,删除的同时从累计量中 减去对应时刻的浏览量;
ab)&将新的浏览量输出至数据库;如果满足一定的条件,则将历史输出至数据库。
在这种方案下,数据库中存储的并不是过去24小时内的浏览量,而是过去23小时多一点内的。例如在1月2日12:15时数据库中的浏览量实际上是1月1日13:00到1月2日12:15的浏览量!
这种降低数据精度的方法我们可以称之为模糊化,它是用资源换效率的一种方法。在对数据精确性不是特别敏感的领域,这种方法可以大大降低系统资源使用 量、提高系统的处理效率。利用模糊化的实时算法快速得到近似结果,而后用离线算法慢慢修正结果的精确度,是百分点在大数据处理中经常使用的招数。
ac)&局部精化
图&6局部精华示意图
有时候,模糊化会掩盖掉一些重要的细节信息,达不到业务需求的要求。例如,电商有很多的秒杀活动,此时必须及时监测单品浏览量,如果我们还按小时维 度进行计算,那显然不能满足要求。这种情况下我们就必须对局部数据进行细化,它是模糊化的逆操作,我们称之为局部精化。如图&6所示,第k小时的数据是很 敏感的,我们希望它的数据能更实时一些,那我们可以将第k小时的数据切分的更细,对它做10分钟、分钟甚至秒级别的计算,而其他时间段仍旧采用小时精度。
这种方案会增加系统的设计和开发难度,而且必须有灵活的配置才能满足多变的业务需求。
ad)&数据建模
除了局部细化,还有一种方法可以提高数据的精确度,这就是数据建模。在方案四中我们提到在小时精度下,实际上只能得到23小时多一点之前的浏览量, 有一部分数据丢失了没有用到。实际上我们可以将丢弃掉的数据利用起来得到更好的结果。最简单思路是假设同一小时内单品的浏览量是线性增加的,那么我们显然 可以利用相邻两个小时的浏览历史推算出任意时刻的浏览量。回到方案四中的例子,1月2日12:15的实时浏览量可以通过下面的公式计算得出:
[a0&+&(a1-a0)&(60-15)/60]&+&a1&+&&&+&a24
其中a0代表1月1日12:00到13:00之间的浏览量,依次类推,a24代表1月2日12:00到12:15之间的浏览量。公式中的 a0&+&(a1-a0)&(60-15)/60&估计了1月1日12:15-13:00之间的浏览量,这样就得出了从1月1日12:15到1月2日 12:15之间24小时内的浏览量。
图&7某单品的全天浏览分布
我们还可以利用更复杂的浏览量分布模型得出精度更高的估计,图&7给出了某单品一天的浏览分布曲线,这个分布适用于绝大多数的商品以及绝大多数的时 间。因此,我们完全可以利用这个分布来更精确的估计每个单品的浏览量,利用这个模型我们甚至不需要记录浏览历史,只需要知道当天0:00到当前的浏览总量 就可以计算出前24小时内的浏览量,甚至预测接下来的浏览量情况!
当然,模型也不是万能的,模型本身的建立和更新也是有代价的,如果建模方法不恰当或者模型更新不及时,很有可能得出的结果会很差。
本文首先介绍了百分点公司大数据平台的基本原理,并详细说明了其中与实时计算相关部分,实时计算框架和数据查询框架,的系统架构、处理流程和应用。 而后,我们以海量数据计数问题为例,深入浅出的介绍了在百分点公司在实时计算算法中常用的方法和技巧,以及它们适用的场景和可能带来的问题。这些方法和技 巧具有普遍性和通用性,被广泛应用于百分点个性化推荐引擎的各个模块,包括用户意图预测、用户画像、个性化推荐评分、商品分类等等。如果能在实际业务中灵 活运用这些方法和技巧,则能够大大提高实时计算的数据规模和处理效率,帮助业务快速发展。希望本文的介绍能够帮助读者更好的理解大数据实时计算的方方面 面。
阅读(...) 评论() &MPP DB 是 大数据实时分析系统 未来的选择吗_百度知道
MPP DB 是 大数据实时分析系统 未来的选择吗
我有更好的答案
讲到架构这里就要先讲下 CAP 原则:Consistency( 一致性 )。为什么 MPP DB 扩展性不好?有很多原因,有产品成熟度,实际在应用过程中,就我目前从公开资料看到的不超过 100 个节点,如支付宝中用 Greenplum 来做财务数据分析的最大一个集群 60 多台机器,一旦出错很难恢复,动不动导致毁库。所以 MPP DB 要在扩展性上有质的提示,要对元数据,以及数据存储有架构上的突破,降低对一致性的要求,这样扩展性才能提升,否则的话很难相信一个 MPP DB 数据库是可以容易扩展的。2、 并发的支持,这两天和人讨论到 MPP DB (分布式数据库大数据领域,实时分析系统(在线查询)是最常见的一种场景,前面写了一个《 实时分析系统 (HIVE&#47。元数据巨大无比。HBASE为什么号称支持上千并发,这也是在特定的场景下(查询时带用户标示,即带row key)才能实现的,复杂查询场景下,什么系统都歇菜。所以MPP DB应用场景已经非常明显了,适合小集群(100以内),改名为 TDW ,小米等公司选用 HBASE 等。关于 HIVE/HBASE/IMPALA 介绍等可以看我前面的文章。当前在实时分析系统中:架构师不要将精力浪费在如何设计能满足三者的完美 分布式 系统,而是应该进行取舍,目前没有一个很好的解决方案;HBASE&#47,也就支持50~100的并发能力;IMPALA) 浅析 》讨论业界当前常见的方案,但是同时有两个致命的缺点,大家选型的时候不得不考虑,说白了就是通过多线程并发来暴力 SCAN 来实现高速。 这种暴力SCAN的方法。MPP DB 还是基于原 DB 扩展而来, DB 里面天然追求一致性( Consistency ),也是通过全盘SCAN的方法来实现的,但是最根本的还是架构本身的问题。MPP DB未来是不是趋势:一个查询系统,设计出来就是提供人用的,所以能支持的同时并发越高越好。当前HBASE&#47,对单个查询来说。如果从性能来讲,以 Greenplum 为最典型代表),也有应用广度的问题, MPP DB 在多维复杂查询性能确实要好于 HIVE&#47,整个系统能支持的并发必然不高,从目前实际使用的经验来说,如腾讯基于 HIVE 深度定制改造,低并发的(50左右)的场景,最后再合并结果,必然带来分区容错性较差、 扩展性:MPP DB 都号称都能扩展到 1000 个节点以上。MPP DB 核心原理是一 个大的查询通过分析为一一个子查询,分布到底层的执行,硬盘数量越多越好,转速越快越好。 忠告:1,这种场景下,也就 100 台以内。这和 hadoop 动不动 4,5 千个节点一个节点集群简直不在一个数量级上;IMPALA应对复杂查询时,最难的是多维度复杂查询;IMPALA 等,因此有不少声音认为, MPP DB 是适合这种场景的未来的解决方案。 MPP DB 看似对多维度复杂查询性能较好;HBASE&#47,动用了整个系统的能力,单个查询比较快,但同时带来用力过猛的问题。集群规模变得太大,业务数据太多时, MPP DB 的元数据管理就完全是一个灾难,
数据一致更新,所有数据变动都是同步的 Availability( 可用性 ),
好的响应性能 Partition tolerance( 分区容错性 )
可靠性 定理:任何 分布式 系统只可同时满足二点,没法三者兼顾。另外和 Greenplum 公司交流,在广东移动最大的用来做数据存储的。互联网公司用得比较多是 HIVE/HBASE ,我不知道,但是至少目前来看
采纳率:89%
来自团队:
为您推荐:
其他类似问题
mpp的相关知识
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。142被浏览10,363分享邀请回答14添加评论分享收藏感谢收起33添加评论分享收藏感谢收起大数据提速:Impala能否取代Hive
近日,Cloudera发布Impala实时查询引擎Impala 1.0 beta版,并声称这项革命性的技术能解决Hadoop批处理延迟问题(比原来基于MapReduce的Hive SQL查询速度提升3~30倍),开源的Impala还为Hadoop打开了通向关系型数据库和商业智能工具的大门。
Impala是运行于现有Hadoop基础设施上的实时互动SQL查询引擎,可以让Hdadoop DFS文件系统以及Apache HBase数据库中的数据支持实时查询。这意味着Impala为Hadoop打开了通向关系型数据库和传统商业智能工具的大门(后两者基于SQL查询)。
此前,数据仓库架构Apache Hive能够让Hadoop某种程度上支持结构化数据访问,但是Hive采用的方法是将SQL查询转化成MapReduce任务,这导致Hive的性能很差。而且,Hive只能支持不到30%的SQL分析功能,而根据Cloudera的说法,Impala将比Hive出色得多。
“从长远看,Impala将取代Hive,但目前Hive的安装基数很大,关联的应用很多,所以Impala不会很快取代Hive,”Coudera首席执行官Mike Olson说道:“因为支持实时查询,Impala将会非常有吸引力。”
Impala实际上是两个产品。核心部分是Impala实时查询引擎,采用Apache开源授权方式,Hadoop用户可以单独使用这个引擎。同时,Impala项目也将以Cloudera Enterprise RTQ(Real-Time Query)为名进入CDH发行版。可以部署到生产环境的版本将到2013年一季度就绪。Cloudera Enterprise RTQ将作为Cloudera 管理控制台的一部分,负责管理Impala服务器。从这个管理控制台中IT人员能够看到查询的运行情况、运行时间以及活跃用户数等。
借鉴Dremel
Impala可谓是Cloudera的秘密武器,在正式发布之前,Impala项目的开发高度保密,显然,Cloudera希望给大数据业界一个惊喜。Impala有望解决Hadoop系统的两个顽疾:批处理速度慢和数据可访问性差(无法支持分秒级的实时互动查询分析)。Cloudera在中透露Impala是在Dremel的启发下开发的。Impala不再使用缓慢的 Hive+MapReduce批处理,而是通过与商用并行关系数据库中类似的分布式查询引擎(由Query Planner、Query Coordinator和Query Exec Engine三部分组成),可以直接从HDFS或者HBase中用SELECT、JOIN和统计函数查询数据,从而大大降低了延迟。其架构如下图所示。
Impala的架构
商业智能厂商的福音,但不会取代传统数据仓库
Impala对于商业智能厂商来说也许是个福音。过去,商业智能厂商只能采用耗时的手动方式将数据从Hadoop系统中转移出来,或者忍受Hive的延迟和功能局限。在ad hoc查询分析模式下,Impala可以让BI工具直接访问Hadoop中的数据,但Olson表示,在生产环境,关键任务工作负载仍然将会由关系型数据库处理。“一些工作负载将会借Impala进入Hadoop系统,但是如果需要进行结构化数据的高速复杂分析,传统大型数据仓库依然无可替代。传统数据仓库运行的OLAP引擎有很多专用界面,支持数据汇总与聚合。这些都不是SQL语言和Impala能够处理的。(有趣的是,OLAP正受到内存计算技术的威胁,所以人们不禁会问,有朝一日OLAP是否也会被部署到Hadoop系统里)。
能否取代Hive,用户说了算
Cloudera还没有对Imala进行benchmark测试,但是Olson表示Impala未必能达到关系型数据库的性能,但可以肯定的一点是,速度将比Hive快3-30倍,这足以让用户抛弃Hive选择Impala。Cloudera的一些客户目前已经开始测试Impala,其中两家结果即将公布。其中一家公司Monsanto在全球范围内有大量研究科学家协作分析抗病-野草基因组,但是目前这些研究数据分散在很多数据孤岛中,Monsanto希望能够在Hadoop中整合所有数据,并用Impala提供高速SQL查询服务,Monsanto目前正在开发一个覆盖所有研究中心的协作时互动环境。
Cloudera另外一家客户——在线旅游预订网站Expedia使用Cloudera产品管理者超过4PB的数据,目前正在测试通过Implala了解用户的预定内容,谁在预订,哪些航班、租车公司、酒店更受欢迎(或者流失客户)。
Expedia全球商业智能和数据仓库总监Jeff Prather透露:“Impala让我们的Hadoop系统的延迟降低了50%,而且提供了很多前所谓有的业务分析功能。”
Olson鼓励Hadoop社区文档,()因为越多人使用、测试,这项技术产品化的速度就会越快。
但是目前还清楚Impala是否能够比Hive更受欢迎,甚至取代Hive。Cloudera的竞争对手们,如Hortonworks和MapR也没有表态是否支持Impala。但是在最大的Hadoop发行商Cloudera的支持下,在如此众多的厂商和用户提高Hadoop的SQL查询速度的期待下,Impala的前景还是一片光明的。
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
&&&除非注明,本站文章均为原创或编译,转载请务必注明出处并保留: 文章来自
相关文章:
在TMT领域具有十余年的咨询和创业经验。 目前主要关注信息安全,同时密切关注云计算、社会化媒体、移动、企业2.0等领域的技术创新和商业价值。拥有美国麻省理工学院MBA学位和清华大学经济管理学院学士学位,曾任BDA中国公司高级顾问,服务过美国高通、英特尔、中国网通、SK电讯、及沃达丰等公司。联系邮件:
企业员工对WiFi的依赖性越来越高,企业的安全边界和数据安全正在面临与日俱增的WiFi移动安全威胁
来自开源组件和开源代码的安全威胁呈几何级数增长,严重威胁到信息安全“上游水源地”——安全开发和代码安全
一个电子商务网站只要速度慢一秒钟,每年的销售额损失就可能高达16亿美元。
对于大多数的企业技术和业务决策者来说,制定符合自身需求的物联网技术和方案开发展战略非常困难
企业的安全运营中心到底应该具备哪些核心职能,新时期CISO的技能、职责领导力需要覆盖那些领域呢?
用一百万欧元,一个企业就可以拥有含一万六千个 x86 核的私有云架构基础,并且对成本,外来情报威胁拥有绝对控制权,这是任何国家的公有云供应商都无法提供的。
要使物联网真正成为主流,企业就需要遵循清晰的检查清单来确保其物联网计划的安全。
Ruckus Wireless今天宣布推出全面定制解决方案Ruckus服务提供商云,帮助服务提供商向其客户提供高价值托管服务。
针对不同类型的设备和使用场景,教育机构如何能够确保学生安全进入Wi-Fi网络并获得最佳质量的连接呢?
科技引领融合与创新—零售银行领导者年会将于-25日在上海隆重举办
&Copyright (C) 2011,ctocio.cc - IT经理网}

我要回帖

更多关于 数据库实时同步 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信