大数据技术hadoop

星环大数据基础平台
星环大数据基础平台(TDH) 是星环自主研发的一站式多模型大数据基础平台,包括多个大数据存储与分析产品,能够存储 PB 级别的海量数据,可以处理包括关系表、文本、时空地理、图数据、文档、时序、图像等在内的多种数据格式,提供高性能的查询搜索、实时分析、统计分析、预测性分析等数据分析功能。目前 TDH 已经在政府、金融、能源、制造业等十多个行业内落地,支撑如金融风控与营销、智慧制造、城市大脑、智慧交通等多种核心行业应用。
数据治理
星环科技提供体系完善的整体数据治理解决方案,涵盖数据治理战略、组织制度机制、数据管理活动和技术工具落地四个方面,同时,还为企业提供数据管理成熟度评估(DCMM)指导,在数据战略,数据治理,数据标准、数据架构、数据安全,数据质量,数据应用,数据生存周期 八大项数据管理能力方面结合企业实际需求,帮助客户制定和实施精准有效的解决方案。

大数据技术hadoop 更多内容

致辞,表达了对此次峰会的期待与对中国Hadoop大数据技术发展趋势的肯定,特别是科委大数据三年行动计划。2013年开始,到现在引导出许多相关产业的大数据应用。此后,来自ebay,星环科技,IBM与Cloudera四家公司的代表先后上台发表讲话。内容从Hadoop技术与发展概览到新Power平台的发布,几乎涵盖了当今中国业内Hadoop大数据技术的所有热点。其中,本次技术峰会主办方星环科技的代表——星的看法。IBM副总裁侯淼以“开放”为主题,对IBM新品Power平台进行了介绍与推介,也展示了IBM公司在大数据时代发展Hadoop技术的决心与战略。Cloudera中国区CTO苗凯翔则在后以Hadoop为讲话主题,对Cloudera公司在Hadoop技术发展历程作了回顾,也对今后中国大数据时代Hadoop的不断提升表示了期待。中国Hadoop技术峰会上海站的首日,与会人员已经突破往届记录,截至发稿前,仍有嘉宾不断入场。相信在后续报道中,将有更加振奋人心的技术发展与新品发布。2015年7月23日,上海浦东嘉里中心召开了第七届中国Hadoop技术峰会。早上八点,嘉宾陆续入场,至九点第一次全体会议在浦东大宴会厅召开时,宴会厅千余座位座无虚席,与会嘉宾与从业人士突破千人
的三种典型应用场景,其用武之地小到个人、家庭,到国家,大数据可谓是无所不能。今天Hadoop主要应用场景集中在技术处理上,但是已经有一部分的应用开始偏向机器学习。星环科技与合作伙伴也开始尝鲜,利用Hadoop技术来处理数据的高级分析,从大数据中挖掘出有价值的数据。第一个典型的应用场景是利用大数据来满足实时营销,比如实时采集用户手机的位置信息,推送WI-FI的热点,根据用户的购物历史,刷卡记录来做,这种方法与手术相比,更加准确,也无风险的,这种新的技术随着大数据应用越来越广泛。皮皮:60%的Hadoop应用是用在SQL统计领域,早的Hadoop是用于ETL,包括从数据的萃取到转制到后的加载,而现在到了大量的技术运算,也会用到大量的复杂的物理和数学的方法。皮皮:大数据的浪潮风靡全球,与Hadoop类似,Spark也火了。在国外、Intel、Amazon、Cloudera等公司率先应用并推广Spark大数据应用在医疗领域,有些企业应用大数据的分析对DNA进行比对。过去对高龄产妇进行检查,手术存在风险。现在采用大数据的新技术,通过采集胎儿的DNA序列进行比对,一旦发现胎儿的异常症状,就可以采取措施
行业资讯
Hadoop数据仓库
Hadoop数据仓库是基于Hadoop生态系统构建的大数据存储和处理平台,它的核心组件主要包括Hadoop分布式文件系统、MapReduce编程模型、YARN资源管理器以及一系列上层应用工具。以下是规模的日志数据,包括网络日志、服务器日志、应用程序日志等,对于理解用户行为、监控系统性能和安全审计至关重要。数据仓库:Hadoop可以作为数据仓库的基础,支持企业级的数据存储和分析需求。文本挖掘Hadoop数据仓库的一些关键特点和应用场景:关键特点高度可扩展性:Hadoop能够在计算机集群间分配数据并完成计算任务,这些集群可以方便地扩展到数以千计的节点中,处理PB级甚至更大的数据集。高容错性:Hadoop通过数据的多副本存储和分布式计算的任务容错机制,保证数据的可靠性和可用性。低成本高效益:Hadoop通过普通廉价的机器组成服务器集群来分发以及处理数据,降低了企业的硬件成本。同时,Hadoop的并发数据处理能力提高了数据处理效率,降低了运营成本。灵活多样的数据处理方式:Hadoop数据仓库架构支持多种数据处理方式,包括批处理、实时处理、流式处理和交互式查询等,满足企业多样化的数据
行业资讯
Hadoop数据仓库
Hadoop数据仓库是基于Hadoop生态系统构建的大数据存储和处理平台,它的核心组件主要包括Hadoop分布式文件系统、MapReduce编程模型、YARN资源管理器以及一系列上层应用工具。以下是规模的日志数据,包括网络日志、服务器日志、应用程序日志等,对于理解用户行为、监控系统性能和安全审计至关重要。数据仓库:Hadoop可以作为数据仓库的基础,支持企业级的数据存储和分析需求。文本挖掘Hadoop数据仓库的一些关键特点和应用场景:关键特点高度可扩展性:Hadoop能够在计算机集群间分配数据并完成计算任务,这些集群可以方便地扩展到数以千计的节点中,处理PB级甚至更大的数据集。高容错性:Hadoop通过数据的多副本存储和分布式计算的任务容错机制,保证数据的可靠性和可用性。低成本高效益:Hadoop通过普通廉价的机器组成服务器集群来分发以及处理数据,降低了企业的硬件成本。同时,Hadoop的并发数据处理能力提高了数据处理效率,降低了运营成本。灵活多样的数据处理方式:Hadoop数据仓库架构支持多种数据处理方式,包括批处理、实时处理、流式处理和交互式查询等,满足企业多样化的数据
行业资讯
Hadoop数据仓库
Hadoop数据仓库是基于Hadoop生态系统构建的大数据存储和处理平台,它的核心组件主要包括Hadoop分布式文件系统、MapReduce编程模型、YARN资源管理器以及一系列上层应用工具。以下是规模的日志数据,包括网络日志、服务器日志、应用程序日志等,对于理解用户行为、监控系统性能和安全审计至关重要。数据仓库:Hadoop可以作为数据仓库的基础,支持企业级的数据存储和分析需求。文本挖掘Hadoop数据仓库的一些关键特点和应用场景:关键特点高度可扩展性:Hadoop能够在计算机集群间分配数据并完成计算任务,这些集群可以方便地扩展到数以千计的节点中,处理PB级甚至更大的数据集。高容错性:Hadoop通过数据的多副本存储和分布式计算的任务容错机制,保证数据的可靠性和可用性。低成本高效益:Hadoop通过普通廉价的机器组成服务器集群来分发以及处理数据,降低了企业的硬件成本。同时,Hadoop的并发数据处理能力提高了数据处理效率,降低了运营成本。灵活多样的数据处理方式:Hadoop数据仓库架构支持多种数据处理方式,包括批处理、实时处理、流式处理和交互式查询等,满足企业多样化的数据
行业资讯
Hadoop数据仓库
Hadoop数据仓库是基于Hadoop生态系统构建的大数据存储和处理平台,它的核心组件主要包括Hadoop分布式文件系统、MapReduce编程模型、YARN资源管理器以及一系列上层应用工具。以下是规模的日志数据,包括网络日志、服务器日志、应用程序日志等,对于理解用户行为、监控系统性能和安全审计至关重要。数据仓库:Hadoop可以作为数据仓库的基础,支持企业级的数据存储和分析需求。文本挖掘Hadoop数据仓库的一些关键特点和应用场景:关键特点高度可扩展性:Hadoop能够在计算机集群间分配数据并完成计算任务,这些集群可以方便地扩展到数以千计的节点中,处理PB级甚至更大的数据集。高容错性:Hadoop通过数据的多副本存储和分布式计算的任务容错机制,保证数据的可靠性和可用性。低成本高效益:Hadoop通过普通廉价的机器组成服务器集群来分发以及处理数据,降低了企业的硬件成本。同时,Hadoop的并发数据处理能力提高了数据处理效率,降低了运营成本。灵活多样的数据处理方式:Hadoop数据仓库架构支持多种数据处理方式,包括批处理、实时处理、流式处理和交互式查询等,满足企业多样化的数据
行业资讯
Hadoop数据仓库
Hadoop数据仓库是基于Hadoop生态系统构建的大数据存储和处理平台,它的核心组件主要包括Hadoop分布式文件系统、MapReduce编程模型、YARN资源管理器以及一系列上层应用工具。以下是规模的日志数据,包括网络日志、服务器日志、应用程序日志等,对于理解用户行为、监控系统性能和安全审计至关重要。数据仓库:Hadoop可以作为数据仓库的基础,支持企业级的数据存储和分析需求。文本挖掘Hadoop数据仓库的一些关键特点和应用场景:关键特点高度可扩展性:Hadoop能够在计算机集群间分配数据并完成计算任务,这些集群可以方便地扩展到数以千计的节点中,处理PB级甚至更大的数据集。高容错性:Hadoop通过数据的多副本存储和分布式计算的任务容错机制,保证数据的可靠性和可用性。低成本高效益:Hadoop通过普通廉价的机器组成服务器集群来分发以及处理数据,降低了企业的硬件成本。同时,Hadoop的并发数据处理能力提高了数据处理效率,降低了运营成本。灵活多样的数据处理方式:Hadoop数据仓库架构支持多种数据处理方式,包括批处理、实时处理、流式处理和交互式查询等,满足企业多样化的数据
行业资讯
Hadoop数据仓库
Hadoop数据仓库是基于Hadoop生态系统构建的大数据存储和处理平台,它的核心组件主要包括Hadoop分布式文件系统、MapReduce编程模型、YARN资源管理器以及一系列上层应用工具。以下是规模的日志数据,包括网络日志、服务器日志、应用程序日志等,对于理解用户行为、监控系统性能和安全审计至关重要。数据仓库:Hadoop可以作为数据仓库的基础,支持企业级的数据存储和分析需求。文本挖掘Hadoop数据仓库的一些关键特点和应用场景:关键特点高度可扩展性:Hadoop能够在计算机集群间分配数据并完成计算任务,这些集群可以方便地扩展到数以千计的节点中,处理PB级甚至更大的数据集。高容错性:Hadoop通过数据的多副本存储和分布式计算的任务容错机制,保证数据的可靠性和可用性。低成本高效益:Hadoop通过普通廉价的机器组成服务器集群来分发以及处理数据,降低了企业的硬件成本。同时,Hadoop的并发数据处理能力提高了数据处理效率,降低了运营成本。灵活多样的数据处理方式:Hadoop数据仓库架构支持多种数据处理方式,包括批处理、实时处理、流式处理和交互式查询等,满足企业多样化的数据
产品文档
10 Hippo 运维
运维管理界面WebserverWebserver是Hippo提供运维监控的界面。默认访问地址为:4567"class="bare">http://<webserver_ip>:4567。或者在Manager管理界面我们可以通过下图所示的查看链接这里进行跳转。图15.登录HippoWebserverWebserver主要由下面几个部分构成。概况图16.概况该页面展示了Hippo集群的基本信息,包括:Masterstatus:当前的ActiveMaster,MasterGroup,MasterAddress,Master的健康状态TabletServerStatus:TabletServerAddress,健康状态,逻辑机架和数据中心信息,容量使用以及Tablet个数TabletNum:当前集群表的个数Version:Hippo版本信息库表图17.库表页面以库和表的概念集群存储的各类数据信息。库信息:库名库创建时间库内各类表的信息:点击某个库,可以看到库下所有表的信息,主要包括:••表的ID••表的名字••表的状态••表的Tablet数量••表的Engine类型••表的副本数•...
产品文档
5.7 查询类操作
过滤条件表达式Hippo当前支持如下表达式,可用于标量或向量查询。表46.过滤条件表达式表达式描述and当前版本支持and,不支持or/not==等值<小于⇐小于等于>大于>=大于等于inin[1,2,3]notinnot_in[1,2,3]like'_'表示匹配任一字符,'%'表示匹配任意字符,'\'为转义符向量相似性检索本节描述如何进行向量相似度搜索。Hippo中的向量相似性搜索计算查询向量与表中向量的距离,返回最相似的结果集。通过指定标量过滤条件,用户可以进行向量与标量的混合搜索。curl-ushiva:shiva-XGET'localhost:8902/hippo/v1/{table}/_search?pretty'-H'Content-Type:application/json'-d'{"output_fields":["book_id"],"search_params":{"anns_field":"book_intro","topk":2,"params":{"nprobe":10},"embedding_index":"ivf_flat_index"}...
产品文档
2 Quick Start
ThistutorialwillguideyouthroughthefollowingtaskswithinHippoCloud:EstablishingatablePerusingthetableIncorporatingdataExecutingsearchoperationsEliminatingrowsDissolvingthetableBeforeyoustartInthisguide,wewillbeutilizingthePythonAPI.Priortocommencement,ensurethatyouhave:RegisteredforaHippoCloudaccount.SubscribedtothecomplimentaryplanandestablishedatrialclusterwithinHippoCloud,orsubscribedtothestandard/enterpriseplansandconstructedadedicatedcluster.IfyouanticipateemployingPythonfordevelopment,ascert...
产品文档
1 Introduction
OverviewUnstructureddatamanagementismoreimportantthaneverduetotheriseofbigdata.Managingandgleaningbusinessvaluefromunstructureddataisofutmostimportancetoenterprisestoday.Advancementsinmachinelearning,aswellasdeeplearning,technologiesnowenableorganizationstoefficientlyaddressunstructureddataandimprovequalityassuranceefforts.Inthefieldofartificialintelligenceormachinelearning,embeddingsandvectordatabaseshavebecomeincreasinglyimportantfortacklingawiderangeofproblems.Thesetechniquesareusedtorepresen...
产品文档
5.18 全文检索
Hippo在1.2版本提供了全文索引能力,兼容ElasticSearch6.7.2语法,在底层架构上复用了公司产品TranswarpScope的一部分特性,支持以Java/HTTPRestful的形式通过Hippo的HTTPServer接口进行全文索引的创建、查询、使用等各类需求,通过该能力的支持,可以更好的实现向量与全文的混合检索。通过将向量检索加全文检索的联合召回,可以降低漏检和误检的概率,能够实现比单独使用向量或全文更高的精度。同时,一套数据库系统可避免部署多套系统带来的架构复杂、开发运维成本高等问题。具体的使用方法除了访问端口需要将端口从8902调整为9200外,均可参考《TranswarpScope手册》4.TranswarpScopeAPI介绍。
产品文档
8 性能分析
本节测试主要描述了Hippo1.0在关键测试上的一些性能表现,该份测试同样也是Hippo的基准测试,后续版本发布也会在不同版本上进行该测试进行对比分析。术语表142.Hippo性能测试术语TermDescriptionnq一次搜索请求中搜索的向量个数topk一次请求中对于要检索的每个向量(依赖nq),所能检索到最近距离的向量个数RT一次请求从发起到接受响应的时间]QPS请求在每秒内成功执行的次数dataset测试所用数据集,不同数据集表示不同的业务场景测试集群配置硬件配置表143.性能测试硬件配置硬件规范Nodes3CPUIntel®Xeon®Gold5218RCPU@2.10GHzMemory16*\16GBRDIMM,3200MT/sDISKNVMeSSD2T*4GPUNONE软件配置表144.性能测试软件配置软件版本Hippov1.2TranswarpManagerTDH9.3.0测试集表145.性能测试数据集数据集名称数据集介绍向量维度向量总数查询数量数据总量距离类型Sift-128-euclidean该数据集是基于Texmex的数据集整理,使用SIFT算法得到的图片特征向量。...
产品文档
5.10 任务相关
在Hippo中,比较耗时的操作如激活、加载向量索引实际上是一个分布式任务,用户可以通过任务相关接口查看、删除任务。查看任务curl-ushiva:shiva-XGET"localhost:8902/hippo/v1/_jobs?pretty"-H'Content-Type:application/json'-d'{"job_ids":["fc6feff4f303455a9347f9aab323dfc8"],"action_patterns":["hippo*"]}';返回结果:{"jobs":[{"job_id":"810935a1d91a46b7af2ec35013454fed","job_status":"SHIVA_JOB_SUCCESS","embedding_number":100,"task_results":[{"id":"54ab52493dfb4bab9fb7742d850c64c4","status":"TASK_SUCCESS","server":"172.29.40.26:27841","embedding_number":100,"execute_time":...
查看Master节点通过以下命令,查看集群Master节点信息:curl-ushiva:shiva-XGET'localhost:8902/hippo/v1/_cat/master?v'返回结果:epochtimestampactive.master.hostactive.master.portmaster.group169079683909:47:19172.29.203.18926841172.29.203.189:26841,172.29.203.189:26851,172.29.203.189:26861查看数据节点curl-ushiva:shiva-XGET'localhost:8902/hippo/v1/_cat/nodes?v'//查看所有节点curl-ushiva:shiva-XGET'localhost:8902/hippo/v1/_cat/nodes/{node}?v'//{node}表示待匹配的节点地址,支持以*通配,支持指定多个pattern,多个pattern以逗号分割返回结果:
产品文档
3.3 Cluster
OverviewAclusterisaHippoCloudinstanceassociatedwithspecificcomputingresources.Youcancreaterelatedtables,insertcorrespondingdata,andcompleteproductexperiencewithinacluster.Beforeyouusethedemoenvironment,youneedtocreateacluster.CreateClusterYouneedtogotothespecificproject.Iftherearenoclustersunderthecurrentproject,youcanclickthe'Createcluster'buttonbelowtheclustercreationguidancepagetoentertheclustercreation.Ifthereareclustersunderthecurrentproject,youcanclickthe'+Cluster'buttonabovetheclusterlist...
产品文档
5.3 写入类操作
本节介绍Hippo表写入相关操作。Hippo会返回写入成功数据的下标以及总共写入成功的数据条数,如果出现行级错误(比如主键冲突),Hippo会返回具体的行级错误。插入本节介绍如何向Hippo中插入数据。curl-ushiva:shiva-XPUT'localhost:8902/hippo/v1/{table}/_bulk?database_name={database_name}&pretty'-H'Content-Type:application/json'-d'{"fields_data":[{"field_name":"book_id","field":[1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35,36,37,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63,64,65,66,67,68,69,70,71,72,73,74...