成都 数据湖
成都 数据湖 更多内容

·未来数据技术论坛”城市巡回活动,首站成都将于8月25日举办,邀请西南区域政府、金融、能源、制造、交通等数字化先驱行业专家代表齐聚蓉城,分享各领域数字化转型创新实践。聚焦智慧蓉城建设,更有来自智慧蓉城研究院的专家分享超大城市治理和转型发展新路径,该项目也是星环科技在川渝内数据要素应用场景的先驱标杆项目。成都站活动可谓亮点十足、干活满满,赶快扫描下方海报二维码报名吧!后续“向星力未来数据技术论坛”城市党的十八大以来,党中央高度重视发展数字经济,将其上升为国家战略。今年,我国《数字中国建设整体布局规划》出台、两会期间宣布组建国家数据局,让数字经济战略提档加速。为助力千行百业紧抓时代机遇转型升级,在数字浪潮中奋楫争先,星环科技特推出“向星力·未来数据技术论坛”城市巡回活动,集结各方智慧力量,共探大数据、大模型、人工智能等未来数据技术赋能行业发展的新思路。星环科技2023系列市场活动——“向星力

3月10日,由中国信息通信研究院云计算与大数据研究所主办,星环科技、信雅达承办的“数字中国金融连接自主绽放技术破局”信创时代下金融行业数字化转型论坛在成都举行。此次信创时代下金融行业数字化转型论坛,如何做好“信创”与“数字化”的齐头并进,也是当前金融行业的迫切关注点。星环科技致力于打造企业级大数据基础软件,自成立以来一直坚持自主研发与技术创新,积极参与信息产业国产化进程,是大数据基础软件国产化的重要推动者之一。经过多年自主研发与技术创新,已形成大数据与云基础平台、分布式关系型数据库、数据开发与智能分析工具的软件产品矩阵,支撑客户及合作伙伴开发数据应用系统和业务应用系统,助力客户实现数字化转型。根据工信部电子第五研究所代码扫描测试报告,星环科技大数据基础平台TDH的1200万行代码里自研代码率超过70%,ArgoDB代码自主率(行数)分别超过90%。除了产品自带信创基因,星环科技还积极融入信国产化中间件。星环科技已深度适配从底层芯片主机到操作系统,再到上层应用,均可支持在用户全信创软硬件环境下的7x24安全稳定运行。而且星环科技还拥有成熟的基础软件替代解决方案:大数据基础平台TDH可以替代

行业资讯
数据仓湖
“数据仓湖”是一种将数据仓库和数据湖的优势相结合的新型数据架构概念。架构特点融合存储:既包含数据仓库中经过清洗、转换和集成的结构化数据,又涵盖数据湖中原始的、未加工的多类型数据,如结构化、半结构化和实时接入并进行流处理,及时获取最新的业务信息。多引擎协同:结合了数据仓库和数据湖的多种计算引擎,如数据仓库中的传统SQL引擎,以及数据湖中的大数据处理引擎,根据不同的业务场景和数据特点,选择合适的计算引擎进行数据处理,提高处理效率。数据管理数据治理:在数据仓湖架构中,数据治理更加全面和精细。一方面,对数据仓库中的数据进行严格的质量管理、元数据管理和数据安全管理,确保数据的准确性、一致性和安全性;另一方面,也对数据湖中的原始数据进行一定的治理,如数据分类、标签化等,提高数据的可管理性。数据血缘:通过建立完善的数据血缘关系,清晰记录数据从原始来源到最终应用的整个流转过程,包括数据在数据仓库和数据湖之间的转换和传递,方便数据追溯和问题排查。应用场景综合分析:企业可以在数据仓湖中进行全面的数据分析,既包括基于数据仓库的传统报表分析、即席查询等,也包括基于数据湖的深度数据挖掘、机器学习等高级分析,为

、证券、医药、政府、航天、公安等。为了弥补未能来上海参会的嘉宾的遗憾,星环将在成都希尔顿酒店举办"数据∞智能∞未来——星环科技大数据3.0研讨会",着重分享星环新产品及落地案例;更有现场Demo展示和目前,我国互联网、移动互联网用户规模居全球第一,拥有丰富的数据资源和应用市场优势,地方政府对于大数据产业的重视日益加强,各地都已启动大数据建设相关工作。在5月份举办的第二届星环用户大会上,我们以"数据∞智能∞未来"为主题,邀请了千余名来自于大数据、人工智能、云计算方面的行业专家、学术界专家以及企业高管人士参与此次盛会。会上我们发布了新的产品:人工智能平台智子,大数据平台TDH6.0,云平台TDC,分布式数据库ArgoDB,图数据库StellarDB,全面布局"ABC"。全球知名的数据管理系统评测基准标准化组织TPC在会上还宣布,星环大数据平台TDH通过TPC-DS基准测试,并且是目前为止全球唯一一家通过官方审计的公司。星环在世界范围内填补了该项技术的空白,成功"登顶"全球数据库领域的珠穆朗玛峰。同时,除了前沿的技术和新产品的分享,还有更多行业落地案例的分享,行业包括航空、电力、能源、银行

行业资讯
数据仓湖
“数据仓湖”是一种将数据仓库和数据湖的优势相结合的新型数据架构概念。架构特点融合存储:既包含数据仓库中经过清洗、转换和集成的结构化数据,又涵盖数据湖中原始的、未加工的多类型数据,如结构化、半结构化和实时接入并进行流处理,及时获取最新的业务信息。多引擎协同:结合了数据仓库和数据湖的多种计算引擎,如数据仓库中的传统SQL引擎,以及数据湖中的大数据处理引擎,根据不同的业务场景和数据特点,选择合适的计算引擎进行数据处理,提高处理效率。数据管理数据治理:在数据仓湖架构中,数据治理更加全面和精细。一方面,对数据仓库中的数据进行严格的质量管理、元数据管理和数据安全管理,确保数据的准确性、一致性和安全性;另一方面,也对数据湖中的原始数据进行一定的治理,如数据分类、标签化等,提高数据的可管理性。数据血缘:通过建立完善的数据血缘关系,清晰记录数据从原始来源到最终应用的整个流转过程,包括数据在数据仓库和数据湖之间的转换和传递,方便数据追溯和问题排查。应用场景综合分析:企业可以在数据仓湖中进行全面的数据分析,既包括基于数据仓库的传统报表分析、即席查询等,也包括基于数据湖的深度数据挖掘、机器学习等高级分析,为

行业资讯
数据入湖方案
数据入湖方案涉及将不同来源的数据以原始格式存储到数据湖中,为企业提供统一的数据管理和分析平台。以下是一些关键的数据入湖方案和技术:数据源接入:数据湖需要支持多样化的数据源接入,包括结构化数据、半结构化数据和非结构化数据,如关系型数据库、日志文件、社交媒体数据等。数据存储:采用对象存储服务作为数据湖的集中存储,可以支撑EB规模的数据湖,实现数据的统一存储。元数据管理:使用元数据管理工具对数据湖中的元数据进行统一管理,无论数据是在“湖中”还是在“湖外”。数据入湖工具:使用如CDL(实时数据接入工具)和CDM(批量数据迁移工具)等入湖工具,实现关系数据库数据到HDFS目录的数据迁移。数据更新和事务支持:选择支持数据更新和ACID事务的数据湖产品,作为数据湖存储引擎。数据安全与隐私保护:加强数据访问控制、加密传输和脱敏处理等安全措施,确保数据的安全性和合规性。数据湖构建服务:使用数据湖构建服务支持多数据源实时入湖,实现湖上元数据统一管理,并提供企业级权限控制。数据入湖实施方案:根据数据的特点和业务需求,设计不同的数据入湖实施方案,包括批量数据迁移、实时数据接入等。

行业资讯
数据湖(Data Lake)
数据湖(DataLake)是一个以原始格式存储数据的存储库或系统。数据湖可以按原样存储数据,而无需事先对数据进行结构化处理。数据湖是一种新兴的数据存储方式,可以存储多种类型的大数据,包括结构化和非结构化数据。数据湖的基本原则是在存储大量数据之前不对其进行任何结构化处理或转换。采用基于对象存储(ObjectStorage)的方式存储数据,数据可以通过各种查询工具或大数据分析工具进行分析和处理。数据湖的优势包括:存储大数据量:数据湖可以存储海量的数据,包括结构化和非结构化数据。些数据可以来自不同的来源、格式和类型,无需经过事先处理。灵活性:数据湖可以轻松地添加、删除和修改数据,而无需改变数据源或存储结构。这种灵活性使得数据湖可以快速适应业务的需求变化。成本效益:数据湖使用基于对象存储的方式存储数据,可以降低存储成本。此外,减少数据重复存储的机制可以提高数据利用效率。数据分析和处理:数据湖提供了各种查询和分析工具,帮助企业对数据进行深入的探索和分析。数据质量控制:数据湖可以不影响原始数据的情况下,对其中的数据进行质量控和清理。在数据湖中实现数据质量控制可以确保数据分析的准确性和可靠性。数据

行业资讯
数据湖(Data Lake)
数据湖(DataLake)是一个以原始格式存储数据的存储库或系统。数据湖可以按原样存储数据,而无需事先对数据进行结构化处理。数据湖是一种新兴的数据存储方式,可以存储多种类型的大数据,包括结构化和非结构化数据。数据湖的基本原则是在存储大量数据之前不对其进行任何结构化处理或转换。采用基于对象存储(ObjectStorage)的方式存储数据,数据可以通过各种查询工具或大数据分析工具进行分析和处理。数据湖的优势包括:存储大数据量:数据湖可以存储海量的数据,包括结构化和非结构化数据。些数据可以来自不同的来源、格式和类型,无需经过事先处理。灵活性:数据湖可以轻松地添加、删除和修改数据,而无需改变数据源或存储结构。这种灵活性使得数据湖可以快速适应业务的需求变化。成本效益:数据湖使用基于对象存储的方式存储数据,可以降低存储成本。此外,减少数据重复存储的机制可以提高数据利用效率。数据分析和处理:数据湖提供了各种查询和分析工具,帮助企业对数据进行深入的探索和分析。数据质量控制:数据湖可以不影响原始数据的情况下,对其中的数据进行质量控和清理。在数据湖中实现数据质量控制可以确保数据分析的准确性和可靠性。数据

行业资讯
云原生数据湖
云原生数据湖是一种将数据湖架构与云原生技术深度融合的创新数据架构和解决方案。架构特点存储与计算分离:基于云存储的弹性和可扩展性,实现存储与计算的解耦。数据存储在云对象存储等持久化存储中,而计算资源则可以根据实际需求灵活分配和扩展,大大提高了资源的利用率和成本效益。容器化部署:利用容器技术,将数据湖的各个组件进行容器化封装,实现快速部署、弹性伸缩和高效管理。容器化使得数据湖能够在不同的云环境中轻松迁移和运行,提高了系统的可移植性和灵活性。微服务架构:采用微服务架构设计理念,将数据湖的功能划分为多个细粒度的微服务,如数据摄入、数据处理、元数据管理、数据查询等。每个微服务可以独立开发、部署和扩展,降低成本。高可用性:通过云原生的多副本存储、自动容错和故障转移等机制,确保数据湖的高可用性。即使部分节点出现故障,也能自动切换到其他可用节点,保证数据的连续性和业务的正常运行。敏捷开发与迭代:云原生数据湖探索与可视化:提供丰富的数据探索和可视化工具,方便用户对数据湖中的数据进行查询、分析和可视化展示。数据安全与治理云安全机制:继承了云平台的安全机制,如身份认证、访问控制、数据加密等,确保数据的安全性和
猜你喜欢
产品文档
10 Hippo 运维
运维管理界面WebserverWebserver是Hippo提供运维监控的界面。默认访问地址为:4567"class="bare">http://<webserver_ip>:4567。或者在Manager管理界面我们可以通过下图所示的查看链接这里进行跳转。图15.登录HippoWebserverWebserver主要由下面几个部分构成。概况图16.概况该页面展示了Hippo集群的基本信息,包括:Masterstatus:当前的ActiveMaster,MasterGroup,MasterAddress,Master的健康状态TabletServerStatus:TabletServerAddress,健康状态,逻辑机架和数据中心信息,容量使用以及Tablet个数TabletNum:当前集群表的个数Version:Hippo版本信息库表图17.库表页面以库和表的概念集群存储的各类数据信息。库信息:库名库创建时间库内各类表的信息:点击某个库,可以看到库下所有表的信息,主要包括:••表的ID••表的名字••表的状态••表的Tablet数量••表的Engine类型••表的副本数•...
产品文档
5.10 任务相关
在Hippo中,比较耗时的操作如激活、加载向量索引实际上是一个分布式任务,用户可以通过任务相关接口查看、删除任务。查看任务curl-ushiva:shiva-XGET"localhost:8902/hippo/v1/_jobs?pretty"-H'Content-Type:application/json'-d'{"job_ids":["fc6feff4f303455a9347f9aab323dfc8"],"action_patterns":["hippo*"]}';返回结果:{"jobs":[{"job_id":"810935a1d91a46b7af2ec35013454fed","job_status":"SHIVA_JOB_SUCCESS","embedding_number":100,"task_results":[{"id":"54ab52493dfb4bab9fb7742d850c64c4","status":"TASK_SUCCESS","server":"172.29.40.26:27841","embedding_number":100,"execute_time":...
产品文档
8 性能分析
本节测试主要描述了Hippo1.0在关键测试上的一些性能表现,该份测试同样也是Hippo的基准测试,后续版本发布也会在不同版本上进行该测试进行对比分析。术语表142.Hippo性能测试术语TermDescriptionnq一次搜索请求中搜索的向量个数topk一次请求中对于要检索的每个向量(依赖nq),所能检索到最近距离的向量个数RT一次请求从发起到接受响应的时间]QPS请求在每秒内成功执行的次数dataset测试所用数据集,不同数据集表示不同的业务场景测试集群配置硬件配置表143.性能测试硬件配置硬件规范Nodes3CPUIntel®Xeon®Gold5218RCPU@2.10GHzMemory16*\16GBRDIMM,3200MT/sDISKNVMeSSD2T*4GPUNONE软件配置表144.性能测试软件配置软件版本Hippov1.2TranswarpManagerTDH9.3.0测试集表145.性能测试数据集数据集名称数据集介绍向量维度向量总数查询数量数据总量距离类型Sift-128-euclidean该数据集是基于Texmex的数据集整理,使用SIFT算法得到的图片特征向量。...
产品文档
5.8 查看集群信息
查看Master节点通过以下命令,查看集群Master节点信息:curl-ushiva:shiva-XGET'localhost:8902/hippo/v1/_cat/master?v'返回结果:epochtimestampactive.master.hostactive.master.portmaster.group169079683909:47:19172.29.203.18926841172.29.203.189:26841,172.29.203.189:26851,172.29.203.189:26861查看数据节点curl-ushiva:shiva-XGET'localhost:8902/hippo/v1/_cat/nodes?v'//查看所有节点curl-ushiva:shiva-XGET'localhost:8902/hippo/v1/_cat/nodes/{node}?v'//{node}表示待匹配的节点地址,支持以*通配,支持指定多个pattern,多个pattern以逗号分割返回结果:
产品文档
5.3 写入类操作
本节介绍Hippo表写入相关操作。Hippo会返回写入成功数据的下标以及总共写入成功的数据条数,如果出现行级错误(比如主键冲突),Hippo会返回具体的行级错误。插入本节介绍如何向Hippo中插入数据。curl-ushiva:shiva-XPUT'localhost:8902/hippo/v1/{table}/_bulk?database_name={database_name}&pretty'-H'Content-Type:application/json'-d'{"fields_data":[{"field_name":"book_id","field":[1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35,36,37,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63,64,65,66,67,68,69,70,71,72,73,74...
产品文档
5.7 查询类操作
过滤条件表达式Hippo当前支持如下表达式,可用于标量或向量查询。表46.过滤条件表达式表达式描述and当前版本支持and,不支持or/not==等值<小于⇐小于等于>大于>=大于等于inin[1,2,3]notinnot_in[1,2,3]like'_'表示匹配任一字符,'%'表示匹配任意字符,'\'为转义符向量相似性检索本节描述如何进行向量相似度搜索。Hippo中的向量相似性搜索计算查询向量与表中向量的距离,返回最相似的结果集。通过指定标量过滤条件,用户可以进行向量与标量的混合搜索。curl-ushiva:shiva-XGET'localhost:8902/hippo/v1/{table}/_search?pretty'-H'Content-Type:application/json'-d'{"output_fields":["book_id"],"search_params":{"anns_field":"book_intro","topk":2,"params":{"nprobe":10},"embedding_index":"ivf_flat_index"}...
产品文档
3.3 Cluster
OverviewAclusterisaHippoCloudinstanceassociatedwithspecificcomputingresources.Youcancreaterelatedtables,insertcorrespondingdata,andcompleteproductexperiencewithinacluster.Beforeyouusethedemoenvironment,youneedtocreateacluster.CreateClusterYouneedtogotothespecificproject.Iftherearenoclustersunderthecurrentproject,youcanclickthe'Createcluster'buttonbelowtheclustercreationguidancepagetoentertheclustercreation.Ifthereareclustersunderthecurrentproject,youcanclickthe'+Cluster'buttonabovetheclusterlist...
产品文档
5.18 全文检索
Hippo在1.2版本提供了全文索引能力,兼容ElasticSearch6.7.2语法,在底层架构上复用了公司产品TranswarpScope的一部分特性,支持以Java/HTTPRestful的形式通过Hippo的HTTPServer接口进行全文索引的创建、查询、使用等各类需求,通过该能力的支持,可以更好的实现向量与全文的混合检索。通过将向量检索加全文检索的联合召回,可以降低漏检和误检的概率,能够实现比单独使用向量或全文更高的精度。同时,一套数据库系统可避免部署多套系统带来的架构复杂、开发运维成本高等问题。具体的使用方法除了访问端口需要将端口从8902调整为9200外,均可参考《TranswarpScope手册》4.TranswarpScopeAPI介绍。
产品文档
2 Quick Start
ThistutorialwillguideyouthroughthefollowingtaskswithinHippoCloud:EstablishingatablePerusingthetableIncorporatingdataExecutingsearchoperationsEliminatingrowsDissolvingthetableBeforeyoustartInthisguide,wewillbeutilizingthePythonAPI.Priortocommencement,ensurethatyouhave:RegisteredforaHippoCloudaccount.SubscribedtothecomplimentaryplanandestablishedatrialclusterwithinHippoCloud,orsubscribedtothestandard/enterpriseplansandconstructedadedicatedcluster.IfyouanticipateemployingPythonfordevelopment,ascert...
产品文档
1 Introduction
OverviewUnstructureddatamanagementismoreimportantthaneverduetotheriseofbigdata.Managingandgleaningbusinessvaluefromunstructureddataisofutmostimportancetoenterprisestoday.Advancementsinmachinelearning,aswellasdeeplearning,technologiesnowenableorganizationstoefficientlyaddressunstructureddataandimprovequalityassuranceefforts.Inthefieldofartificialintelligenceormachinelearning,embeddingsandvectordatabaseshavebecomeincreasinglyimportantfortacklingawiderangeofproblems.Thesetechniquesareusedtorepresen...