数据仓库建得咋样?用这九个指标一量便知 数据仓库往往是企业重投入项目,但如何客观评价其建设成效?单凭感觉或口头汇报难免主观,今天我们从三个维度拆解九个可量化的核心指标,帮你用数据说话。 一、完善度:业务需求覆盖得全不全?完善度直接反映数据仓库对业务场景的支撑能力。如果业务方总抱怨“找不到数据”,说明完善度不足。 关键指标1:跨层引用率 公式:直接被汇总层(DWS/ADS/DM)引用的ODS表数量 ÷ 活跃ODS表总数 × 100% 意义:衡量明细层(DWD)的建设完整性。理想值应趋近于0,若出现大量跨层引用,说明DWD层缺失或设计不合理,导致重复开发风险。 优化建议:每月监控此指标,发现异常时优先补充DWD模型。 关键指标2:汇总数据查询比例 公式:汇总层查询次数 ÷ 数据仓库总查询次数 × 100% 意义:反映上层模型对高频需求的覆盖效率。健康值需超过80%,若比例持续下降,表明有新场景未覆盖。 实战案例:某电商平台通过提升此指标至85%,报表平均响应时间缩短60%。 二、复用度:是否实现“一次建设,多处复用”?复用度是数据中台核心价值的体现。高复用意味着更低的开发成本和更高的数据一致性。 关键指标3:模型引用系数 公式:有下游引用的表的下游表总数 ÷ 有下游引用的表数量 标准:低于2说明复用性差,3以上及格,5以上为优秀设计。 场景解读:若重要事实表仅被个别下游引用,需排查模型抽象是否合理。 关键指标4:数据血缘发散度 评估方式:通过血缘图观察链路结构,网状发散型为优,直线型为劣。 价值:发散结构可降低变更影响范围,例如调整一个公共模型,所有下游自动生效。 三、规范度:数据资产是否“看得懂、管得清”?规范度决定数据资产的可用性和维护成本。混乱的元数据会使得数据仓库沦为“黑盒”。 关键指标5:字段描述覆盖率 公式:有业务描述的字段数 ÷ 总字段数 × 100% 要求:核心表需达100%,整体不低于95%。字段无描述如同图书馆书籍无标签,无人敢用。 关键指标6:模型分层信息覆盖率 公式:有分层标记的表数量 ÷ 总表数 × 100% 意义:明确分层(如ODS/DWD/DWS)可快速定位数据加工阶段,减少误用。 关键指标7-9:主题域覆盖率、命名规范符合度、同义字段一致性 这三项共同保障数据的可管理性:主题域分类提升查找效率,规范命名降低沟通成本,同义字段一致避免歧义。建议均追求100%覆盖。 总结:指标是工具,行动是关键九个指标可分层应用:初创团队先抓规范度打基础,成长期提升复用度,成熟期持续优化完善度。建议每月生成指标报告,针对性改进薄弱环节。下次汇报时,你可以直接展示:“我们的模型引用系数已提升至4.2,跨层引用率降至5%”——这才是扎实的数据建设成果。 来源(公众号):数据治理体系
2026-04-02 10:27 8
2026年全国两会期间,数据领域相关话题成为众多全国人大代表和全国政协委员关注的焦点。我们综合各类媒体和平台的公开报道,对2026年两会中有关数据工作的建议提案进行了梳理,倾听代表委员声音,不断提升数据工作质效。 周源 全国政协委员、社会和法制委员会委员、知乎创始人兼CEO 应促进互联网内容社区数据有序流通 全国政协委员、社会和法制委员会委员、知乎创始人兼CEO周源提出要构建促进数据有序流通机制。他建议,可支持互联网内容平台参与建设重点领域专业语料库开源开放平台。国际开源平台通过构建“模型—数据—评测”协同生态和成熟的开源许可体系,聚合全球开发者资源,已成为人工智能产业的重要数据基础设施。周源认为,可在行业主管部门指导下,支持互联网内容社区联合行业协会与科研机构,共建面向重点领域的专业语料开源开放平台,形成“社区生产—平台治理—模型反馈—持续优化”的良性循环,推动互联网内容社区沉淀的专业知识资源转化为合规、稳定、可持续的大模型训练数据来源,夯实我国人工智能产业发展的数据基础。 来源:央广网 徐冠巨 全国人大代表、传化集团董事长 筑牢智能产业生态新基建 全国人大代表、传化集团董事长徐冠巨建议,打造行业级“智能体大脑”,筑牢智能产业生态新基建。由政府牵头搭台,推动人工智能企业、产业龙头及研究机构联合攻关,围绕制造业数据平台、垂类模型和行业共享知识库,共同打造行业级“智能体大脑”;共建行业数据标准,鼓励龙头企业与人工智能企业联合制定行业数据采集、治理与共享标准,破解数据分散、标准各异的瓶颈;推动数据资源高质量供给,在工业制造、交通物流等高价值领域加快构建高质量数据集,鼓励龙头企业开放行业数据资产,探索跨行业、跨区域的数据共享机制。徐冠巨还建议,建设“人工智能+制造”复合型人才培养与认证体系,重点培育懂产业、懂AI的“产业AI架构师”。制定人工智能时代复合型人才能力认定标准,明确“产业AI架构师”的培养方向与评价依据;推动双向人才流动,既推动产业人才向人工智能方向转型升级,也推动人工智能科学家团队深入实体企业;构建产学研用一体化培养机制,鼓励科技企业与产业企业联动,开展全链条人才培养,加速复合型人才规模化供给。 来源:中国经济网 王小龙 全国政协委员、一工机器人银川有限公司董事长 化工数字化转型应聚焦四大方向 全国政协委员、一工机器人银川有限公司董事长王小龙建议实施“人工智能+石化化工”专项行动。他提出,要重点支持化工行业大模型研发,围绕分离、蒸馏、提纯等典型单元操作,部署场景化AI模型,推动行业生产从“经验驱动”向“数据驱动”转型。同时,需加快制定行业数字化转型成熟度评估标准、数据安全与产权规范,建设高质量行业数据集,为企业转型提供清晰指引。王小龙强调,要推动安全环保与数字化深度融合,强化转型底线支撑。他建议推行“智能巡检+风险预警+应急指挥”一体化系统,对工业机器人、无人机等高危场景巡检装备给予购置补贴,提升化工生产安全管控水平。同时,将碳足迹追溯、能碳管理纳入数字化改造要求,对建成智慧环保平台的企业,给予排污权抵押贷款利率优惠。 在产业协同层面,王小龙提出,要推进园区级数字化协同,打造产业集群效应。他建议以智慧化工园区建设为抓手,实现园区内企业数据联通、资源共享、应急联动;按照“六个一体化”理念,给予园区数字化基础设施专项财政补助。此外,建立园区数字化转型服务平台,提供“诊断—方案—实施—评估”全流程服务,降低企业转型试错成本。 来源:中国化工报
2026-03-31 20:55 12
学校上线数据指标系统,希望完善学校的数据指标体系。然而,数据工程师与业务部门沟通数据指标时,常面临双方信息不对称的尴尬局面:业务部门不清楚数据部门需要哪些数据,数据部门也不清楚业务部门掌握哪些数据;此外,还存在“一把手”所需数据,业务部门与数据部门均未掌握,或双方数据始终不一致的情况。今天,我们就此探讨高校数据指标相关问题,供大家交流讨论。 一、何谓数据指标和指标体系 (1)指标定义:在业务发展进程中会生成数据,数据经过计算与分析后,形成统计结果,即被称为指标。指标是业务单元的度量值,可对业务进行描述、度量和拆解。常见指标示例:UV(活跃用户数)、PV(活跃次数)、注册用户数、人均使用时长等。 (2)指标维度及数值:指标定性部分通常指维度,描述指标的观察视角。指标定量部分描述指标的数值结果。举例:如果以日常监控或分析为目的,运营一般会选择按日进行监控,如每天注册用户数、日活等;如果是汇报或者宣发场景,可能会有按月、年、历史累计等维度做汇总,如某年度新增注册用户数等。 (3)指标体系:指标体系=指标+体系,简言之,就是一系列相互关联的用于衡量业务发展状况的指标的集合。围绕某一业务主题,基于一定的逻辑关系和层次结构,将相互独立又彼此关联的指标连接起来组成的有机整体。指标体系是对业务过程的全面完整的刻画,同时也涉及对指标的分类分级和标准化管理。 二、数据指标为何存在确定性与不确定性 高校数据指标具有复杂性。高校的业务活动丰富多样且动态变化,涵盖教学、科研、管理、社会服务等众多领域,不同领域的数据指标相互交织,导致其内涵与外延难以精准界定。同时,高校的数据来源广泛且分散,不同部门、不同系统产生的数据在格式、质量、统计口径等方面存在差异,数据在采集、传输、存储过程中也易受各类干扰,进一步加剧了数据指标的不确定性。 高校数据指标的不确定性主要源于以下三个方面,它们共同作用,使得任何试图用单一体系精确衡量高校“质量”的努力都变得异常复杂。 (1)测量干扰与指标间的内在矛盾 这类似于量子力学中的“测不准原理”。当你试图精确测量高校的某个方面(如科研论文数量)时,这个过程本身就会干扰或牺牲对其他方面(如本科教学质量)的准确衡量。指标之间往往存在天然的内在不兼容性。例如,过度强调科研经费和论文产出,可能导致资源向科研倾斜,从而削弱对教学的长远投入。大学的使命是多元的,试图用一套指标“通吃”,难免会顾此失彼。 (2)“指标固恋”引发的行为异化 著名的“古德哈特定律” 所揭示的现象:当一个指标本身成为目标时,它就不再是一个好的指标了。因为被测量者(高校)会为了提升排名而采取策略性行为,导致指标失真。 数据美化与造假:高校可能选择性报告数据,甚至直接造假。例如,哥伦比亚大学等名校曾因向排名机构提交不实数据而陷入丑闻。 追逐指标而非内涵:高校可能热衷于容易提升排名的短期行为,如大规模互引刷高论文引用率,或不顾质量地扩招国际学生以提升“国际化”指标。这使得指标越来越“好看”,却可能与真实的教育质量和学术水平脱节。 (3)价值负载与“一把尺子”的局限 大学是极其多样的,有综合性大学,也有特色鲜明的专业院校;有的侧重科研,有的专注教学。用同一套指标和权重去衡量所有学校,无异于用一把尺子去称体重。 学科差异:人文社科与理工科的成果形式、影响力周期完全不同,难以直接比较。以论文数量为核心的评价体系对人文社科就不尽公平。 价值判断:排名指标的选取和权重设置本身就是一种强烈的价值判断。例如,是更看重学术声誉还是毕业生就业率?这背后没有绝对客观的标准,但会直接导致排名结果的巨大差异。 三、为何要平衡静态数据与动态数据 在高校信息化建设中,有效梳理数据指标并构建一个能平衡动态与静态数据的指标体系,是推动数据驱动决策的关键。下面这个表格汇总了核心的构建维度与平衡要点,希望能帮你快速把握整体框架。 静态数据与动态数据在高校数据指标体系中各有其不可替代的作用,二者相辅相成,共同构成了对高校运行状态的全面描绘。静态数据如同高校发展的基石,它们相对稳定,不易受短期波动影响,为高校提供了长期、稳定的基础信息。这些数据有助于高校管理层了解自身的资源状况、结构特征以及历史积累,从而制定出符合自身实际的发展战略和规划。例如,通过分析师生人数、专业数量等静态指标,高校可以清晰地认识到自身的规模优势和潜在的发展空间。 动态数据则如同高校发展的脉搏,它们持续变化,实时反映着高校的运行状态和效能。这些数据对于高校管理层来说至关重要,因为它们能够及时揭示出高校在运营过程中存在的问题和风险,为管理层提供决策支持。例如,通过监测网络流量峰值、系统并发数等动态指标,高校可以及时发现系统瓶颈,优化资源配置,确保教学和科研活动的顺利进行。 平衡静态数据与动态数据,意味着高校在数据指标体系建设中既要注重基础信息的稳定性和可比性,又要关注运行效能的实时性和个性化。这要求高校在数据采集、处理和分析过程中,既要确保静态数据的准确性和完整性,又要提高动态数据的时效性和敏感性。避免陷入唯静态指标论的误区,不能认为基础数据一旦录入即可一劳永逸,而应重点关注其更新机制与生命周期管理。同时要防止动态指标脱离业务场景,若动态指标无法与学科评估、教学质量监测等具体业务场景紧密结合,很容易沦为为动态而动态的数字游戏。 四、如何理解数据指标与“双一流建设”指标 我们在工作中还经常要遇到“双一流”建设的数据指标,如何理解“双一流”建设的数据指标与高校数据治理的数据指标之间的关系,对于提升大学管理水平和建设成效至关重要。下面这个表格清晰地展示了两类指标的核心异同。 “双一流”建设数据指标如同灯塔,为高校指明前进方向,它聚焦于学科建设的关键成果,通过一系列具有战略性和结果性的指标,衡量高校在迈向世界一流过程中的成效,引导高校集中资源,在特定学科领域实现突破,提升国际竞争力。例如,在衡量学科科研成果时,会关注重大科研项目的数量、在国际顶尖学术期刊发表论文的数量等,这些指标直接反映了学科在世界范围内的学术影响力。 而高校数据治理数据指标则像是稳固的基石,为高校的整体运行和发展提供坚实支撑。它贯穿于高校数据产生、采集、整合的全过程,注重数据的规范与质量,确保数据的准确、一致与可用。从全校视野出发,覆盖教学、科研、人事、资产等所有校务环节,为高校的日常运营、管理决策和长期发展提供高质量的数据基础。比如,在人事数据方面,精确记录教职工的基本信息、教学科研成果、培训经历等,为合理配置人力资源提供依据;在资产数据方面,详细掌握学校各类资产的数量、位置、使用状况等,保障资产的有效管理和利用。 尽管两者存在明显差异,但它们并非孤立存在,而是相互依存、相互促进。高校数据治理数据指标为“双一流”建设数据指标提供了可靠的数据来源和坚实的基础。只有确保数据治理工作的高质量开展,保证数据的准确性和一致性,“双一流”建设数据指标才能真实反映高校的学科建设成效,为资源动态调整提供科学依据。反之,“双一流”建设数据指标所设定的目标和导向,也为高校数据治理工作指明了方向,促使数据治理工作更加聚焦于与学科建设相关的关键数据,提升数据治理的针对性和有效性。 五、如何建好高校数据指标体系 我们系统性地做好高校数据指标工作,关键在于建立一套从理念到实践、从战略到技术、从数据到决策的完整体系。 (1)树立正确的指标认知观。 高校数据指标工作首先需要在理念层面达成共识,这是所有实践的基础。必须认识到,任何测量体系都无法完全捕捉教育和学术活动的全部价值。指标选择本质上是价值判断,会天然地放大可量化部分,而相对忽视难以量化的教育内涵(如批判性思维、文化传承等)。这要求管理者对指标结果保持审慎,理解其局限性。数据指标是服务于办学治校的“导航仪”和“诊断书”,而非追求的终极目标。其根本价值在于支撑决策、发现问题、引导发展,应坚决避免陷入“为指标而指标”的怪圈。 (2)强化战略与治理的协同 理念共识需要坚实的组织和制度保障,确保数据工作与学校发展同频共振。建立强有力的数据治理体系是数据可信可用的基石。数据治理委员会要明确各部门的数据权责,制定统一的数据标准和管理办法,实现“一数一源”,从机制上保障数据的准确性和一致性。要进一步强化战略目标与数据指标的精准传导,将“双一流”建设等战略目标,逐层分解为可衡量、可追溯的关键绩效指标(KPIs),并确保每个战略指标都有清晰的数据来源和统计口径,形成“战略-指标-数据-责任”的闭环。 (3)构建灵活的技术支撑架构 先进的技术平台是处理海量、异构数据,并平衡其动态与静态特性的关键。建设一体化数据平台,兼顾静态数据(如师生基本信息、资产数据)的稳定性和动态数据(如实时网络流量、科研成果增量)的时效性。实现数据的分层分类管理,依据数据的不同特征和应用场景进行管理,对数据精细化管理。同时,平台需支持对数据的全生命周期质量管理。 (4)聚焦价值创造的应用导向 数据工作的最终价值体现在其对实际业务优化的推动上。以应用牵引治理,让数据“活”起来,从师生和管理的痛点需求(入手开展数据治理,能让治理成效迅速显现,获得广泛支持。通过构建“领导驾驶舱”、教师个人数据“一张表”等应用,将数据转化为直观的洞察,直接服务于管理决策和学术活动。同时,建立常态化监测与评估机制,将数据分析与战略复盘、同行比较相结合,实现周期性的自我诊断与持续改进。 (5)培育共享共治的数据文化 技术和制度的有效运行离不开人的支持和文化的滋养。加强对管理者和教师的数据素养培训,培养“用数据说话、用数据决策、用数据管理、用数据创新”的文化氛围,使数据思维成为校内共识。需要建立有效的激励与反馈机制,让数据提供者和使用者都能从数据应用中获益。例如,通过数据服务简化业务流程,让师生感受到便捷;将数据分析结果反馈给业务部门,帮助其优化工作,形成“数据应用-价值创造-主动参与”的良性循环。 总之,数据指标在数据治理过程中需要统筹兼顾数据指标的确定性和不确定性,需要处理静态数据与动态数据的精准识别,需要将学校高质量发展的数据指标与数据业务的具体指标进行比对,实现二者数据指标一致性与质量提升,从而系统性的做好高校数据指标工作。 来源(公众号):数智转型洞察
2026-03-30 11:31 28
文 | 国家数据发展研究院副院长、研究员姜江 数据作为新型生产要素,具有规模倍增性、高流动性、非消耗性、可融合性、价值异质性和高敏感性等特征。过去一段时间以来,伴随数字技术创新,人工智能浪潮兴起,数字化、网络化、智能化进程加快,大量“沉睡”数据被激活,高质量数据供给量增大,数据要素融入经济社会发展带来了巨大的经济和社会效益,越来越多的经营主体愿意为数据投入、为数据产品服务“买单”,数据要素成为新质生产力培育壮大的重要驱动力。数据要素潜力持续释放,既顺应了数据要素的基本特征和发展规律,也有利于发挥我国海量数据资源的独特优势,更是数据基础制度持续完善、数据产业不断壮大、数据流通交易生态日趋优化的必然结果,将成为新形势下经济潜能挖掘、创新驱动发展、现代化产业体系建设、高质量发展的重要支撑。 一、场景牵引,以制度护航高质量数据供给 数据“供得出”是数据要素价值实现的第一步,确保数据高效、公平、安全供给的制度环境是前提条件。自2022年12月中共中央 国务院发布《关于构建数据基础制度更好发挥数据要素作用的意见》以来,我国数据基础制度“四梁八柱”体系形成,配合后期陆续出台的公共数据开发利用等系列专项文件、政策,基本解决了当前及未来一段时间数据要素市场化价值化进程中亟需破解的制度保障和政策支撑难题。同期,国家数据局会同相关部门深入推进“数据要素×”行动,连续两年举办“数据要素×”大赛,带动全国32个地方超20万人参与,遴选发布130余个“数据要素×”典型案例,编制发布超700个数据开发利用典型场景建设指引,以场景建设持续挖掘公共数据、企业数据“供出来、用起来”的优秀实践,为各地相关部门“吃定心丸”、形成行业共识、提供行动指南,在全社会范围内逐步形成数源部门积极供数、全社会踊跃用数并为优质数据买单的氛围,成为“以新需求引领新供给,以新供给创造新需求”的生动实践。 二、企业主导,以数据产业提升数据要素竞争力 企业是创新主体,是发挥市场配置资源决定性作用的中坚力量,是推动数据要素潜力从释放到爆发的关键要素。从实践看,从事数据采集汇聚、计算存储、流通交易、开发利用等活动的数据企业仍处于孕育生长、蓄势待发的发展初期,表现出高成长、高投入、强场景牵引、数据和知识密集等特征,是数智化浪潮中代表新质生产力的重要经营主体。越来越多的企业家、具有前瞻性战略思维的投资机构看到了数据产业孕育的巨大发展潜力,预判到数据要素价值释放将带来的颠覆性变革和难以估量的经济社会价值,率先投资于“数”、投资于承载数据要素专业知识的人,数据产业呈现快速增长态势。据国家数据发展研究院2025年对重点样本企业最新跟踪和测算结果显示,全国数据企业数量已超过40万家,较上一年增长16%,覆盖数据采汇算存流以及开发利用、安全治理、基础设施建设等各环节,一批具有一定技术优势和专业场景特色、蕴含巨大发展潜力的创新型数据企业快速崛起,具身智能机器人领域短期内就迅速涌现8家估值超过百亿元级的数据企业,生动践行了数据要素潜力转化为数据要素生产力、数据产业竞争力乃至国家竞争新优势的发展理念。 三、各展所长,创新发展数据流通服务机构 顺应数据要素高流动性等基本特征,培育壮大数据流通交易机构能够在当前以“四两拨千斤”的效果撬动数据要素潜力加快释放。2026年初,国家数据局等部门发布《关于培育数据流通服务机构 加快推进数据要素市场化价值化的意见》,直面当前全国一体化数据市场培育发展中的难题和“卡点”,明确了数据交易所(中心)、数据流通服务平台企业、数据商等主要流通服务机构的边界,提出支持其以更创新的方式、更广阔的范围、更多元的角度推动数据流通交易,既为各类机构创新发展指明方向,也为全面释放数据要素价值进一步畅通通道。下一步,相关政策将精准瞄向不同类型的数据流通服务平台企业,提出差异化发展目标,支持探索多样化的数据流通交易模式和产品服务形态,特别是以人工智能为导向的高质量数据集产品;并“硬”“软”结合,既有谋划实施数据流通服务机构能力提升工程以及支持建设运营数据基础设施等“硬”政策,也有尽职免责、创新试错容错等软机制,鼓励平台企业创新发展、大胆探索。 四、供需联动,繁荣数据要素市场生态 培育开放共享安全的全国一体化数据市场,通过打破区域分割和部门壁垒,构建丰富多元的数据资源供给,打造畅通的供需对接渠道,推动提升数据资源配置效率,是顺应数据要素市场化价值化发展规律、激活数据要素潜在价值的必然要求。当前,我国数据市场整体呈现出资源多、速度快、势头好和场景广的良好态势,初步形成了多元主体参与、协同推进的发展格局。据国家数据局2025年5月发布的《全国数据资源调查报告》显示,全国2024年度数据生产总量超过40泽字节(ZB),同比增长25%,预计2025年有望突破50ZB。数据产品类型和供给能力持续提升,数据产业细分领域快速发展,数据标注、数据治理等行业爆发出巨大增长潜力,在推动国民经济向优向新,稳增长、促就业等方面发挥突出作用。从需求侧看,伴随数据开发利用场景不断拓展,各领域特色化应用持续涌现。特别是,在供需联动作用下,产学研、各行业领域数据投入意愿持续提升、数据付费意识逐步加强、数据“买卖”日趋常态,全社会供数买数形态蔚然成风。下一步,要以保障数据市场治理安全为底线,以加大数据供需衔接力度为近期攻坚目标,以持续建立健全数据市场制度规则、强化数据基础设施支撑为近中期目标,以完善全国一体化数据市场规则为中长期目标,坚持不懈繁荣数据要素市场生态。 来源(公众号):国家数据局
2026-03-27 18:31 31
文 | 中国政法大学法学院教授 李爱君 促进数据融合不仅是数字技术发展的内在要求,也是政策制度引导数据资源优化配置、激励创新与实现社会整体利益最大化的重要体现。政策制定和学术研究需要深刻洞察数据的内在规律和发展趋势,并为解决数据融合中的产权配置和保护、责任承担和利益分配等核心难题提供系统性的制度设计和解决方案。 数据融合是指多个数据持有主体,为提供数据、数据产品与服务,开展联合经营管理等业务合作活动,通过技术手段将不同来源、不同格式或不同结构的数据进行汇集与整合,从而对特定对象形成更全面、更细致的综合性认知的一系列行为与过程的总称。数据融合并非从无到有产生新的原始数据,其核心在于提取并合成蕴含于原始数据中的信息,生成更高层级知识、洞察或决策支持的结果数据,从而实现数据价值的乘数效应。数据融合的典型实践有合作建立人工智能训练数据专区、高质量数据集、可信数据空间和联盟制数据资源池共建等。融合数据因其数量庞大、维度多元,能够形成高价值的数据资源集合,有利于生成高价值的数据。促进数据融合契合国家关于数据要素市场化配置的顶层设计,服务于高质量经济发展与数字中国建设的战略目标。 数据融合有以下几方面价值。一是促进人工智能的发展。数据融合可以产生大规模、高质量的训练数据集,这正是发展人工智能所必需的。二是实现数据资源配置效率的提升。数据融合有助于发挥数据的乘数效应,参与数据融合的多方可以同时使用数据,互不影响,实现数据资源的优化配置与高效复用。但目前,在我国数据融合的实践中,多主体参与的数据融合面临数据产权不明的制约。导致这些问题的原因是,数据具有不同于传统财产的特征,现有的物权制度不适于保护数据产权。数据融合是具有很大潜力的数据提供和流通方式,但数据融合开发利用过程中的各方权利、义务、责任边界不清,导致数据融合不能发挥其应有价值,不能充分实现创造价值增量的目标。 《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》提出“数据产权结构性分置”,尊重数据多方共生、非消耗性、非竞争性等客观特征,在此基础上进一步建立健全数据产权制度,回应了数据融合实践的需要,为数据融合提供清晰、稳定、可预期的法治环境,促进数据价值的释放。具体到数据融合场景,需要确立数据持有权、数据使用权和数据经营权相互独立,数据产权人可享有三权中的一项或多项权利,同一数据的同一权利可由多人享有的规则。这样的产权配置方案能够为复杂的、多主体参与的数据融合活动提供公平的秩序。 数据产权结构性分置方案,不仅能够促进数据融合复用,而且能够促进数据流通和价值释放,与建立健全数据产权制度、鼓励多源数据融合开发、促进数据高效复用的政策导向和发展战略高度契合。通过明晰数据融合利用过程的产权配置,合理保护各方劳动和其他要素贡献,不仅能够充分调动数据市场中各方主体的积极性、主动性和创造性,最大化释放数据资源的内在价值,而且有助于推动数据由静态资源向可以依法有序流动的资产转化。下一步,要通过用好数据流通交易合同示范文本等,结合实践经验不断迭代完善细化条款,引导参与数据融合的各方提前明确数据使用范围、责任边界、利益分配等,实现权利义务的清晰化与规范化。 来源:国家数据局
2026-03-26 16:21 28
总体概述 数据已从业务运营的副产品演变为驱动现代企业逻辑的原材料。企业往往难以对有效管理这一资产所需的各种学科进行分类。高管和工程师经常混淆数据战略、数据治理和数据管理的概念,交替使用这些术语或应用不一致。这种混淆造成了结构性摩擦,导致战略停留在理论层面,治理沦为官僚主义的繁文缛节,管理缺乏战略方向。 要形成一套连贯的方法,就需要将这些概念分解成不同的层次,同时明确连接它们的机制。不妨将组织比作一座城市。数据战略就像城市规划,根据人口增长和经济目标来决定商业区和住宅区的选址。数据管理就像施工队,负责铺设管道、修路,并确保水流顺畅。数据治理就像建筑规范检查员和市规划委员会,确保施工队遵循规划,并保证城市宜居安全。当这些角色界限模糊不清时,城市就会变成混乱无序的蔓延,数据组织也会变成代价高昂的负担。本文旨在明确这些界限,探讨策略上的交汇点,并提供一个严谨的执行框架。 战略背景 构建稳健的数据战略已不再是纸上谈兵,而是关乎生存的根本。人工智能和机器学习模型需要消耗海量数据,以驱动预测性维护、个性化医疗和算法交易。如果没有基础战略,这些先进功能要么无法实现,要么更糟,会产生缺陷结果。 战略层面运作的逻辑在于应对不确定性。与依赖可预测资源和资本的计划不同,战略指导组织在不可预测的市场环境下实现目标。数据战略必须阐明理想的未来状态,并将数据举措与更广泛的业务目标保持一致。而这种一致性往往是举措失败的原因。战略往往因为过于抽象而沦为束之高阁,缺乏影响日常运营所需的“具体性”。 各行业的战略驱动因素不尽相同,但都具有一些共同的主题。在金融领域,驱动因素通常是风险建模和欺诈检测;在制造业,则是供应链优化和预测性维护;医疗保健行业则依赖数据进行患者监测和疫情预测。这些驱动因素的共同之处在于,它们都依赖数据和人工智能能力来保持竞争力。那些未能构建数据基础设施、培育数据驱动文化以及招募分析人才的组织,将面临被淘汰的命运。 “做什么”和“怎么做”之间存在着至关重要的区别。战略定义了“做什么”——愿景、目标和架构方向。执行,通常被错误地归入战略范畴,实际上属于运营层。数据治理是连接两者的桥梁。数据治理在战术层运作,将战略意图转化为可执行的操作。它提供必要的监督,确保运营任务——数据质量检查、管道维护和安全协议——与战略愿景保持一致。如果没有这个战术层,战略和执行就如同身处两个独立的世界,造成价值损失。 深度解析 要理解数据学科的运作机制,需要剖析“DAMA 轮”,并将其重新置于三维空间中进行重构。传统上,数据管理协会 (DAMA) 将数据治理置于轮子的中心,周围环绕着数据架构、数据质量和数据安全等学科。这种模型虽然准确,但对于现代组织设计而言却不够完善。它暗示了一种扁平化的关系。 三维模型提升了治理水平。它位于战略与管理的交汇点,起到战术筛选的作用。 三层架构 战略层由首席数据官 (CDO) 或首席数据与分析官 (CDAO) 负责。该层定义了愿景,并解答了有关数据权属、延迟要求和总体业务价值主张等问题。它决定了组织是采用数据网格(数据所有权分散)模式,还是采用集中式数据仓库模式。 运营层是数据工程师和数据库管理员的职责范围,是执行层面。它涵盖了数据处理的实际操作,例如 ETL 流程、管道自动化和查询优化。运维层注重效率、可靠性和可扩展性,并采用数据质量管理中常用的“计划-部署-监控-行动”循环来确保稳定运行。 战术层是数据治理的领域。它扮演着翻译机制的角色,将战略的抽象逻辑转化为政策、标准和所有权模型。然后,它监督运营层,确保这些标准得到遵守。在这一层,“战略得以具体化”。它不仅仅关乎执行或合规,更关乎赋能。治理通过协调人员、流程和技术,为战略的有效实施扫清障碍。 反馈回路和二阶观测 一成不变的策略是行不通的。系统需要健全的反馈机制才能保持活力。 第一个循环在数据管理内部运行。“计划-部署-监控-行动”循环用于收集运营经验。如果数据管道由于模式漂移而持续出现故障,则此运营情况会反馈到战术层。治理层会审查故障,并可能调整有关模式验证或强制执行的策略。 第二个循环更为深刻。它与亨利·明茨伯格的涌现策略概念相吻合。它涉及“双环学习”,这一概念源于海因茨·冯·福斯特和尼克拉斯·莱曼关于“二阶观察”的研究。 一级观察是指执行最佳实践。如果流程已经制定,运营团队就会遵循该流程。 二阶观察是指质疑这些做法是否符合其潜在价值观或战略目标。它不仅问“我们这样做对吗?”,还问“我们做的事情正确吗?” 这种反馈必须从运营层流经战术层,最终返回战略层。如果战略要求“单一客户视图”,但运营实际情况证明客户数据碎片化严重,无法修复,那么战术层必须将这种矛盾反馈给战略层。战略随后必须进行调整。这种自适应学习机制可以防止组织追求无法实现的目标,并促进数据生态系统的成熟。 摩擦点 实施这种分层架构会遇到很大的阻力。这些阻力很少是技术性的,而是结构性和语义性的。 语义混淆 “数据治理”和“数据管理”这两个术语经常被混用。这并非无关紧要的语义错误,而是会导致结构错位。当治理被视为管理的子集时,它便失去了效力,沦为清单上的项目,而非决策机构。反之,当管理被视为治理的下属时,创新则会在繁琐的审批流程中停滞不前。因此,必须明确二者的职责:数据管理负责执行,数据治理负责监督。 以管道为中心的陷阱 传统的数据生命周期侧重于数据摄取、转换、存储和服务。这是一种以管道为中心的视角,将数据视为一种公用设施,需要从源头输送到消费者。这种视角的问题在于忽略了消费者。它是一种“从左到右”的数据流,消费者必须接受所有被提供的数据。 这种方法造成了脱节。数据工程团队沦为“IT后台”部门。他们构建的数据管道技术上无可挑剔,但由于缺乏上下文信息,无法创造业务价值。这种摩擦体现在:仪表盘无人问津、采用率低以及对数据缺乏信任。 产品生命周期倒置 为了解决流程中的摩擦,企业正在转向产品生命周期模型。这种模型颠倒了流程,从消费者开始,从右向左推进。 这里的摩擦源于文化差异。数据工程师必须转型为产品经理。他们必须根据用户需求而非数据源的可用性来“发现、设计、开发、部署和迭代”数据产品。这需要思维模式和技能的根本转变。它要求数据专业人员理解业务背景,而这种能力在传统的工程岗位中往往缺失。 适应性函数和自动化 随着组织规模的扩大,人工治理变得难以为继。“适应性函数”的概念引入了自动化测试,用于根据架构标准评估数据产品。其难点在于实现的复杂性。定义“可发现性”、“可信度”或“互操作性”等适应性函数需要将主观概念编码为可执行代码。这要求较高的技术成熟度和强大的元数据管理系统。 超完整执行 将这些理念转化为现实需要一个严谨的、循序渐进的执行计划。下面将详细介绍如何构建全面的数据战略以及维持该战略所需的运营架构。 第一阶段战略基础 初始阶段的重点是确定逻辑和评估现状。 1.明确愿景和目标 领导团队必须明确阐述期望的未来状态。这并非一份愿望清单,而是对数据如何支持业务目标的精确定义。 业务一致性:将数据计划直接与收入目标、成本降低目标或客户满意度指标挂钩。 目标设定:制定SMART目标(具体、可衡量、可实现、相关、有时限)。例如,“在12个月内将数据检索延迟降低40%,以支持实时欺诈检测。” 2.评估当前状态 战略的制定不能脱离实际情况。对现有环境进行全面评估是必不可少的。 SWOT 分析:开展严格的 SWOT 分析,重点关注数据资产。 优势:识别现有的高质量数据资产或成熟的数据管道。 弱点:目录孤岛、数据缺失或缺乏熟练人员。 机遇:发现人工智能或分析技术可能颠覆现有商业模式的领域。 威胁:分析监管风险(GDPR、CCPA)和竞争对手的数据能力。 数据资产清单:使用数据目录工具扫描生态系统。不要依赖文档;要扫描实际数据库。识别: 数据源(数据库、API、平面文件)。 数据存储(湖、仓库、市场)。 管道(ETL/ELT 作业)。 消费者(报告、仪表盘、机器学习模型)。 流程评估:绘制当前数据流图。识别人工干预发生的位置。找到影子IT运作的“Excel地狱”。 第二阶段团队和治理结构 人员和政策构成战术层面。 1.组建数据团队 组织结构必须与数据战略相呼应。 领导层:任命首席数据官 (CDO) 或首席数据助理官 (CDAO)。该职位必须获得高管层的支持。他们并非 IT 经理,而是负责战略资产的业务领导者。 跨职能团队:组建一个由以下人员组成的团队: 数据工程师:构建和维护数据管道。 数据科学家:构建模型。 数据管理员:管理业务领域内的数据质量和定义。 产品经理:弥合技术团队和业务消费者之间的差距。 2.选择组织模式 选择适合公司文化和规模的组织结构。 (1)集中式结构: 逻辑:所有数据功能均由一个团队处理。 优点:标准化的工具、一致的管理方式、更易于管理。 缺点:成为瓶颈;与业务领域的细微差别脱节。 (2)去中心化/网状结构: 逻辑:领域特定团队将自己的数据作为产品进行管理。 优点:高度可扩展、领域专业知识、迭代速度更快。 缺点:存在碎片化风险,需要强大的自动化(计算治理)。 (3)混合式/中心辐射式: 逻辑:中央团队管理基础设施和治理;领域团队管理分析和使用情况。 优点:兼顾控制力和灵活性。常见于中大型企业。 3.制定战略原则 治理政策定义了行动规则。 (1)数据所有权:每个数据域都必须指定一名所有者。此人对该数据的质量和安全负责。 (2)命名规则:制定严格的标准: 表名(蛇形命名法与驼峰命名法)。 列名(术语统一)。 指标定义(例如,“活跃用户的定义是什么?”)。 UTM 参数和广告系列跟踪代码。 (3)安全与隐私:定义访问控制策略。实施基于角色的访问控制(RBAC)。明确将数据分类为公共数据、内部数据、机密数据或受限数据。 第三阶段架构和技术 运营层依赖于坚实的架构基础。 1.设计数据架构 该架构必须支持“大数据架构”。 (1)参考架构:创建蓝图。它应该详细说明从源头到消费的流程。 (2)整合策略:确定整合模式。 ETL(提取、转换、加载):先转换后加载。适用于结构化数据。 ELT(提取、加载、转换):加载原始数据,按需转换。适用于数据湖。 (3)存储策略: 数据湖:存储原始数据(图像、日志、非结构化文本)。成本低。 数据仓库:存储结构化、处理后的数据。高性能。 数据集市:特定业务部门的数据子集。 2.实施管理工具 选择能够执行该策略的工具。 集成:使用 Fivetran、Airbyte 或自定义 Airflow DAG 等工具进行数据摄取。 转换:使用 dbt(数据构建工具)等工具来管理转换逻辑并进行版本控制。 目录:使用 DataHub 或 Alation 等工具来管理元数据。这对于产品生命周期的“发现”阶段至关重要。 商业智能和可视化: Tableau、Looker 或 PowerBI 等工具。 第四阶段 产品生命周期实施 将工程工作流程从以流水线为中心转变为以产品为中心。 1.从右到左的工作流程 探索:与企业客户互动。了解他们的痛点。他们需要的是仪表盘还是API? 设计:定义模式和数据模型,确保其满足用户需求。 开发:编写代码(SQL、Python)构建数据产品。应用测试(数据质量检查)。 部署:将代码部署到生产环境。通过 CI/CD 实现此过程自动化。 演进:监测使用情况,收集反馈,迭代产品。 2.适应度函数实现 实现这些产品的管理自动化。 可发现性:编写一个脚本,检查数据产品是否已在中央目录中注册。 可信度:实施数据质量测试(例如,[此处应插入测试用例名称])。如果测试失败,管道会向所有者发出警报。rowcount > 0nonullsinid_column 安全性:自动扫描器检查敏感列是否被屏蔽或加密。 第五阶段:卓越运营 这就是数据管理的日常工作。 1.数据采集和存储协议 服务器端追踪:将追踪逻辑从客户端(浏览器)移至服务器端。这可以减少广告拦截器造成的数据丢失,并提高追踪准确性。 数据层清理:确保源端发送的数据结构与消费层逻辑匹配。 身份解析:如果在多渠道环境下运行,则实现合并用户身份的逻辑。 逻辑:IF (email matches) OR (deviceid matches) THEN mergeprofiles 2.测量与分析 归因模型:定义如何将功劳分配给各个接触点。 测试文化:实施A/B测试框架。确保在宣布获胜者之前计算出统计显著性。 增量效应:设置对照组,以衡量营销活动带来的真正提升。 3.客户和第一方数据 单一客户记录:梦寐以求的理想状态。整合来自订单管理系统 (OMS)、企业资源计划 (ERP) 和网络分析的数据。 LTV 和 CAC:计算客户终身价值和客户获取成本。这些是衡量增长的关键指标。 4.商业智能和报表 优化:优化仓库查询以降低成本。 访问控制:确保业务用户能够“自助”访问受管数据集,但原始数据仍对数据工程师锁定。 第六阶段 文化与演化 1.培养数据驱动文化 技术若不被采用,就无法发挥作用。 数据素养:培训员工阅读图表和理解基本统计数据。 数据倡导者:在业务部门中确定“数据倡导者”。他们将作为中央数据团队和业务部门之间的联络人。 2.持续监测 计划-部署-监控-行动循环。 (1)关键绩效指标:跟踪数据平台的运行状况。 管道可靠性(正常运行时间)。 数据新鲜度(延迟)。 用户采纳率(活跃查询数量)。 (2)反馈循环:定期审查策略。当前数据资产清单是否支持业务目标?如果不支持,则调整路线图。 3.监管合规 隐私:实施“隐私设计”。数据最小化(仅收集必要数据)。 伦理方面:建立人工智能伦理委员会,审查算法偏见。 小结 数据战略、数据治理和数据管理在结构上的分离并非纸上谈兵,而是运营稳定的先决条件。战略指明方向,治理提供战术控制,管理提供运营能力。当这三者融合为一个凝聚的生态系统,并由自动化适应性功能和以产品为中心的生命周期提供支持时,组织便能达到数据成熟度,数据不再是负担,而是强大且可变现的资产。术语混乱和以流水线为中心的模式带来的摩擦将不复存在,取而代之的是一个稳定、自我纠正的架构,能够满足人工智能时代不断增长的需求。 转载(公众号):数据驱动智能
2026-03-24 16:23 52
在过往对AI本质、碳基与硅基生命边界的深度探讨中,我们主要在理念层面求索。理念指导实践,回归实践层面,一张清晰、完整、可落地的“AI+”架构全景图,才是串联所有要素的关键纽带。 为此,我从四个维度系统性解构人工智能+架构:第一个是系统结构维度——“理念、方法、工具”,它指导我们如何去解构AI+;第二个是时间过程维度——“意图、智算、执行”,将AI系统解构为彼此依赖、相互协同的三层;第三个是空间部署维度——从中心-边缘-终端的视角,描绘出AI+在云、边、端的分层部署;第四个是组织实施维度——从“战略、业务、平台”的角度,强调AI+敏捷的动态性变革。 一、系统结构维度:理念层、方法层、工具层 理念层:明晰边界,坚守人本 AI时代的核心命题,是认清人与机器的能力边界,守住人类不可替代的价值高地。随着技术手段的不断创新,在强逻辑、高重复、高精度的智能任务方面,机器终将超越人类;而感性认知、信仰构建、价值度量、道德自律与审美创造,则是人类独有的精神内核。 道德律是内在的信仰自律,法律是外在的契约他律,自律与他律共同指向相对自由,最终滋养审美与善意。技术可以无限迭代,但人类追求的终极理想,永远是情感与精神的丰盈。因此,无论AI如何进化,以人为本、向善而行,始终是技术发展的底层逻辑。 方法层:范式革新,架构赋能 在上述理念指导下,我们的方法论势必发生变革。工业文明以体力劳动为核心,数字文明则是智力与体力的双重协同。AI方法论的本质,是把治理能力下沉到业务场景,以平台化的方式持续迭代、沉淀长期价值。 方法不对,努力白费;架构先行,事半功倍。我们需要构建“32N(三网关+两中心+N场景)”核心架构,打通“感知/控制数据、模型/算力、战略意图/编排调度”三大通路,通过语义治理和安全治理,让AI能力精准赋能场景创新。 工具层:数据通联,安全护航 工具层的核心使命,是破解异构数据的互联互通难题,实现“感知数据、控制数据、语义数据”这三大数据“书同文、车同轨”。 同时,碳基人类与硅基数字人混合协作的新时代,催生出全新的安全挑战,必须构建出一套覆盖全链路、全场景的安全体系,为AI发展筑牢底线。 二、时间过程维度:意图层、智算层、执行层 AI不只是思维框架,更是可落地的平台实体,我们将其纵向拆解为意图、智算、执行三层协同体系,层层递进、闭环运转。 意图层:从数据到智慧,从理解到战略 意图层实现的是数据→信息→知识→智慧的高阶跃迁,也是成本最高、价值最大的核心环节。 传统的数据治理解决“可信”,当下的语义治理解决“可理解”。实现语义层的互通,必须在知识层面建立动态本体模型,并基于此实现人机互通,但这并不等同于自主意图。真正的意图,最终指向战略决策。意图层是AI的“大脑中枢”,也是未来攻坚的核心制高点。 智算层:算力底座,模型引擎 智算层是AI的动力心脏,集成计算、网络、存储三大核心资源,承载算力调度与模型运行,为上层意图、下层执行提供坚实支撑,是智能运转的基础保障。 执行层:感知闭环,全域落地 执行层负责从感知付诸行动,完成感知—控制—反馈—优化的全流程闭环。执行的主体涵盖“碳基人类、硅基数字人、软件、硬件”四类资源,是AI从技术走向实用的“最后一公里”,让智能真正转化为行动与价值。 三、空间部署维度:云智能、边智能、端智能 与传统IT架构相比,AI+部署呈现高度分层压缩、分布式部署的特征,智能不再集中于中心节点,即便最小终端也具备计算能力,形成云、边、端三级协同的智能分布。 云智能:全局中枢,重载计算 云智能是全局大脑,承担中心化重载计算、智能网关、语义治理、动态本体模型、安全治理等全局能力,以全局视角统筹全域智能,保障体系的一致性。 边智能:场景先锋,即时响应 边智能是场景创新的灵活触角。对于多模态数据处理,云端处理通常为秒级响应,边缘侧则可实现毫秒甚至微秒级低时延。边缘智能的本质,是以具体场景为中心的轻量化模型计算,是大模型在边缘侧的轻量化部署。 端智能:终端触点,精准对齐 端智能是AI和现实世界真正接触的最后一环,其核心是完成语义对齐与安全对齐:边缘语义在云端汇聚对齐,让本体模型持续迭代优化;安全规则上下贯通,保障终端可信执行。 上述三者关系清晰:云为纲、边为目、端为行。边与云是上下级协同:“云不约束、边即自由”“云若约束、边即遵从”;端严格北向遵从标准,确保数据上传可信,指令下达可落地。 四、组织实施维度:动态战略、动态业务、动态平台 AI带来的不是局部优化,而是全链路、全周期的动态性变革,在此背景下,传统一体化数据平台将迎来彻底的继承性与演进性跃迁。 动态战略:数据驱动,科学决策 AI+让战略制定从经验驱动走向“数据驱动+智能辅助”,实现战略工程级科学动态调整。决策权始终归于人类,但硅基智能为战略研判、动态调整提供强大支撑,让战略更精准、更敏捷。 动态业务:流程重塑,自动优化 在战略的指引下,AI将深度参与组织、制度、流程、标准设计,实现业务流程动态生成、自主优化,打破传统固化模式,让业务适配变化、快速迭代。 动态平台:智能自治,降本增效 传统平台依赖人工开发与反复对齐。未来,平台将走向智能自生成、自治理、自运营,成为一个能不断集成新AI能力、新工具的“活”的平台。数据与技术治理将变得更敏捷、更安全,硅基智能在平台全生命周期中占比也将持续提升。 结语 综上所述,四大维度一维带三维,三维可将“AI+”在宏观整体架构拆解为27个关键模块,按照总分总的V字模型深化下去,可以形成完整的顶层设计蓝图。 “AI+”顶层架构初期不宜过细,也不可缺失;在粗粒度顶层指引下,聚焦重点场景突破,提炼共性需求反哺顶层设计,让顶层规划与基层创新双向奔赴、循环演进,才是AI架构持续进化的正确路径。 技术有边界,智能无终点;架构明方向,落地见真章。 作者:王巍 数字浙江技术运营有限公司总经理 来源(公众号):数字浙江
2026-03-18 10:39 72
文 | 复旦大学管理学院教授 黄丽华 “数据要素潜力加快释放”,这是李强总理在政府工作报告对数据要素事业2025年度进展的肯定,也是对“十四五”以来数据要素制度体系建设成效的总结。2019年数据正式列为生产要素以来,开启了我国数据要素制度体系建设实践的伟大征程。国家数据局成立两年多来,以数据“供得出、流得动、用得好、保安全”为目标,打出了数据要素配置改革“组合拳”,使数据要素制度加快从概念提出到实践落地,为数据要素潜力加快释放提供坚实制度保障。 一、制度引领数据“供得出”,为数据要素潜力释放提供源源不断的“原料” 数据供给是数据要素价值释放的起点。从当前数据流通服务机构公开挂牌的数据产品和服务来看,数据内容源自开放的公共数据比例超60%,这充分说明公共数据蕴含的巨大潜力。公共数据资源开发利用“1+3”政策体系加快建立,为破解公共数据有序合规“供得出”提供了重要支撑。超过30个地方发布了与公共数据资源授权运营相关的专门文件。公共数据“跑起来”示范场景加快建设,加快打通公共数据供给—流通—利用链条,推动公共数据潜力快速释放。 除公共数据以外,支持企业数据和高质量数据集流通利用的政策加快出台,加之我国数据产权制度的确立,极大激发了各类企业和政府机构参与高质量数据集的开发和供给积极性。据报道,目前我国已建成高质量数据集超10万个,规模超890PB,有力支撑了人工智能、科技创新的发展。 二、制度打通数据“流得动”,为数据要素潜力释放提供强劲的动力支撑 数据流通服务机构是数据要素流通的重要载体。2026年初印发的《关于培育数据流通服务机构 加快推进数据要素市场化价值化的意见》,明确了培育数据交易所(中心)、数据流通服务平台企业、数据商等三类数据流通服务机构,支持它们各展其长、创新发展,推动它们成为数据要素“流得动”的重要引擎,降低数据流通成本。 数据基础设施是数据要素流通的关键底座。《国家数据基础设施建设指引》提出了探索可信数据空间等六大类数据流通利用技术设施,并先后发布相关的技术框架或(试行)标准,以期在数据流通领域实现“车同轨、书同文”的基础标准。一年多来,先后开展了由18个城市、34个地方和31个领域三层级节点组成的数据基础设施示范工程,以及63个可信数据空间作为创新发展试点项目,为实现跨区域、跨层级、跨领域数据安全高效流通奠定了基础。 三、制度激发数据“用得好”,为数据要素潜力释放提供广泛的应用场景 “用得好”是数据要素价值释放的目的。制度引领数据要素向实体经济主战场聚焦,赋能千行百业。《“数据要素×”三年行动计划(2024—2026 年)》实施以来,通过开展试点、举办大赛、发布案例和编制场景指引等,以场景为牵引加快数据要素价值释放。以2025年大赛为例,全国参赛项目超2.3万个,涌现了一批优秀的数据要素应用场景和开发利用方案,呈现出多类安全可信数据流通模式,以及众多新型流通形式。比如,2025年商贸流通赛道的十个优秀团队实现了跨主体数据流通量近210T,赋能行业产业链或供应链上的企业有几百家到15万家不等。其中,“可信数据空间赋能家纺产供链高效协同”团队汇聚了200多万个设计素材数据、2万多个行业指数数据、5000多条生产线采集数据、1000多家纺企业销售数据、6万多企业征信数据,以及来自电子商务平台的家纺实时销售数据等,研发覆盖研发、生产、销售全链路流程的6大类业务场景所需的数据产品和服务,助力家纺产品设计时间从30天下降到2.5天,验布速度提高300%,充分彰显数据要素价值。 四、制度筑牢“保安全”底线,为数据要素潜力释放提供可信可控的环境 安全是发展的前提。通过制定数据流通安全治理的制度文件,发布典型案例、出台数据跨境流动、数据分类分级等标准规范,显著激发了各类主体探索安全治理模式和安全技术保障创新的动力。比如,上海城市可信数据空间以区块链等为基础,构建了涵盖数据汇聚、加工治理、可信流动、场景应用、安全保障“五位一体”的可信数据基础设施集群,支撑了上海市医疗健康数据的可信流动。又如,2025年“数据要素×”大赛中,所有参赛团队均采用了比较完善的数据资源管理的技术方案。这些实践说明,制度和技术“双管齐下”,可为数据要素潜力释放提供可信可控的环境。 总之,两年多来,数据要素制度体系建设成效已初步显现,激活供给,顺畅流通,赋能应用,引领了数据要素潜力快速释放。展望未来,制度体系将在实践中完善,在探索中发展,数据要素必将成为驱动我国经济社会高质量发展的核心引擎。 来源(网站):国家数据局
2026-03-13 17:26 93
今年伊始,人工智能智能体(Agentic AI)的崛起便成为焦点。2026年才过去不到两个月,人工智能的讨论就已被人工智能智能体、它们的能力以及它们对企业的益处所主导。在智能体一夜之间创造出各种科幻场景,一系列更为实际的问题浮出水面。例如:将任务委托给机器所带来的治理风险、对人类劳动力的影响,以及对人类控制和监督日益增长的需求。 由于我对任何形式的科技炒作都过敏,所以我不会相信人工智能代理最迟会在圣诞节前统治地球这种说法。但企业确实在探索利用人工智能代理来优化工作流程的可能性。智能体人工智能治理框架的出现似乎也印证了人们对这些解决方案日益增长的兴趣。让我们来看几个例子。 一 新加坡的模型,世界上第一个智能体人工智能框架 2026年1月,新加坡资讯通信媒体发展局(IMDA)发布了全球首个智能体人工智能治理框架。该框架首先承认,智能体“能够访问敏感数据并对其环境进行更改”,这带来了全新的风险。智能体之间复杂的交互作用显著增加了结果变得难以预测的风险。由于智能体可能进行金融交易或修改包含个人数据的数据库,因此这些潜在风险的严重程度无法被低估。 新加坡的模式并非重写治理体系,而是调整人工智能的考量并将其转化为适用于智能体的形式。例如,公平和透明的原则比以往任何时候都更加重要。同样重要的是,人类的问责制、监督和控制也需要尽可能地贯穿人工智能的整个生命周期。 1.智能体人工智能风险 新加坡的框架承认,智能体人工智能的风险与传统的LLM相关风险(SQL注入和提示注入、幻觉、偏见、数据泄露等)并无太大区别。不同之处在于这些风险的表现形式:智能体可能通过制定错误的任务完成计划而产生幻觉,或者在执行过程中,通过调用不存在的工具或以带有偏见的方式调用这些工具而产生幻觉。 当主体之间相互交互时,风险会更高。一个主体的错误可能会引发连锁反应,因为错误的输出会传递给其他主体,并在整个系统中传播。如上所述,复杂的交互可能导致不可预测的结果,并在行动链中出现意想不到的瓶颈。 该模型识别出五类关键的、可能造成危害的风险: 错误操作。试想一下,如果人工智能代理检测到的异常情况不符合预设阈值,导致未能将IT事件上报给人工操作员,会发生什么情况?根据具体情况,这种错误操作可能会导致系统安全受到威胁。 未经授权的行为。这种风险是由代理人采取超出其许可范围的行为造成的。 带有偏见或不公平的行为。我们对偏见并不陌生,因为这是传统人工智能(尤其是二元分类模型)中常见的难题。其原理与此相同:试想一下,一个智能体做出了带有偏见的招聘决定。 数据泄露。一个典型的例子是,代理人可能在不知情的情况下无意中泄露了敏感信息,或者恶意行为者通过代理人获取了私人信息,从而造成了安全漏洞。 对连接系统的干扰。这种风险与代理与其他系统交互时采取的错误行为传播,从而扰乱信息或行为流的事件有关(例如,错误地删除生产代码库)。 2.治理模式 新加坡资讯通信媒体发展局 (IMDA) 的智能体人工智能治理模式基于四大支柱。 (1)前期风险评估 从本质上讲,这一步骤涉及确定代理部署的风险和用例,并设计风险控制系统。 确定应用案例的核心在于识别风险,风险被描述为影响和可能性的函数(这正是风险管理人员所需要的……),以及进行威胁建模。该模型展示了一系列影响人工智能代理潜在影响(部署领域、对敏感数据和外部系统的访问权限、代理行为的范围和可逆性)和可能性(代理的自主程度、任务复杂性)的因素。新加坡资讯通信媒体发展局(IMDA)认为,威胁建模是对风险评估的补充,因为它能够识别潜在的外部攻击场景。常见的威胁包括内存投毒、工具滥用和权限泄露。 下一步合乎逻辑的做法是定义智能体的限制和权限。这意味着需要制定策略、流程和协议,明确界定智能体在工具和系统访问权限、自主程度以及影响范围方面的限制(例如,将智能体部署在网络和数据访问权限受限的“独立环境”中,尤其是在执行代码执行等高风险任务时)。智能体的身份管理和访问控制问题更为棘手,因为目前为人类设计的身份验证系统无法顺利应用于人工智能智能体等复杂系统。随着新的解决方案和标准的开发,传统的身份访问控制和人工监督相结合的模式仍然不可或缺。 (2)使人真正承担责任 第二大支柱在于明确组织内外各方的责任,并建立有效的监督机制。新加坡资讯通信媒体发展局(IMDA)的基本原则是,组织和个人应对其代理人的行为负责。 在组织内部,应明确以下各方的职责:a)关键决策者,包括设定代理的高级目标、权限限制和整体治理方法;b)产品团队,包括定义代理的需求、设计、控制措施、安全实施和监控;c)网络安全团队,包括建立基线安全防护措施和安全测试程序;d)用户,包括确保负责任地使用代理并遵守相关政策。外部参与者可能包括模型开发者或智能体提供商等,组织也应为其明确职责。 设计有效的监督机制包含三项措施。首先,企业需要明确需要人工审批的行动边界,例如高风险或不可逆的操作(编辑敏感数据或永久删除数据),或异常和非典型行为(代理人越权行事)。其次,企业必须确保监督机制的持续有效性,例如通过培训员工识别常见故障模式并定期审核人工控制措施。最后,企业应引入自动化实时警报监控系统。 (3)实施技术和控制流程 除了传统的LLM 相关技术控制之外,第三支柱建议增加因智能体 AI 的新颖性而需要在生命周期内实施的新控制。 例如,企业应使用测试代理引入严格的部署前控制措施,以观察实际代理部署后的运行情况。企业在测试代理时应采取整体方法,包括评估新风险、工作流程、真实环境以及跨数据集的表现,并大规模评估测试结果。与传统人工智能一样,代理在部署后也应持续监控和测试,以便人工能够实时介入并在必要时进行调试。这项工作并非一帆风顺,因为代理运行速度极快,企业可能难以跟上。 (4)赋予最终用户责任 最后,为了确保最终用户(即使用和依赖人工智能代理的用户)的责任和义务,企业应注重透明度(沟通代理的功能和局限性)和教育(培训用户正确使用和监督代理)。企业可以重点关注与代理交互的用户(例如客户服务或人力资源代理等外部用户)的透明度,以及将代理集成到工作流程中的用户(例如编码助手等内部用户)的教育。 二 加州大学伯克利分校的智能体人工智能框架 2026年2月,加州大学伯克利分校长期网络安全中心的一组研究人员发布了《智能体人工智能风险管理标准规范》,该风险框架广泛反映了美国国家标准与技术研究院(NIST)的人工智能风险管理框架(AI RMF)。与IMDA类似,该规范也指出了智能体带来的更高风险,包括“非预期目标追求、未经授权的权限提升或资源获取,以及其他行为,例如自我复制或抵抗关闭”。这些独特的挑战“使传统的、以模型为中心的风险管理方法变得复杂,并需要系统级治理”。 加州大学伯克利分校的框架是专门为单智能体或多智能体人工智能系统的开发者和部署者设计的。然而,作者表示,政策制定者和监管机构也可以使用该框架“来评估智能体人工智能系统的设计、评估和部署是否符合领先的风险管理实践”。 1.智能体人工智能风险 与IDMA相比,该报告指出了更广泛的风险: 歧视和毒性,包括反馈回路、毒性物质的传播以及试剂的可用性、质量和能力方面的差异。 隐私和安全,包括个人或敏感数据的意外泄露、数据泄露以及由此导致的不协调结果。 错误信息,尤其是当一个代理产生的幻觉和错误输出被其他代理重复使用时。 恶意行为者和滥用行为,包括更容易执行复杂的攻击、自动化滥用、大规模操纵、欺诈和协调的影响活动。 人机交互,例如减少人为监督、社会说服行为以及用户难以理解或质疑代理行为。 失控,包括监管破坏、快速执行超越监控和响应,以及破坏关闭或遏制机制的行为。 社会经济和环境危害,包括获得自主能力方面的不平等、集体无力感、大规模的经济和环境影响。 人工智能系统的安全性、故障和局限性,包括自主复制、错位、欺骗、串谋、目标驱动规划、现实世界的影响以及人类监督不足。 2.关注人类控制 与新加坡资讯通信媒体发展局(IMDA)类似,加州大学伯克利分校的标准主要旨在加强人工监管,重点关注以下方面: 人为控制和问责(明确的角色和职责,包括明确的角色定义、干预检查点、升级途径和关闭机制) 系统级风险评估(尤其适用于多智能体交互、工具使用和环境访问) 持续监控和部署后监督(代理行为可能随时间和环境而变化) 纵深防御和遏制(由于当前评估技术的局限性,将特工视为不可信实体) 透明度和文档记录(向利益相关者清晰传达系统边界、局限性和风险缓解决策) 作者承认其自身标准的局限性。首先,智能体人工智能的分类体系差异很大,且在全球范围内应用不一致,这限制了“跨组织和司法管辖区协调建议的能力”。其次,复杂的多系统行为和日益增强的自主性使得确保有效的人为控制和正确归责变得困难。最后,许多风险指标仍不完善,尤其是在“涌现行为、欺骗性匹配和长期危害方面”。 因此,作者警告说,本文采取了一种“预防性方法,强调保守的假设、多层保障措施和持续的重新评估”。它不应被视为一份静态的治理清单,而应被视为“一个动态框架,旨在与智能体人工智能的研究、部署实践和治理规范共同发展”。 2,NIST 设计 如上所述,该框架的设计与 NIST AI RMF 的设计有重叠之处,围绕治理、映射、衡量和管理这四个核心功能构建了智能体人工智能的工作框架。这是作者有意为之,旨在帮助企业在其熟悉的架构上应用风险管理程序,并构建一个与现有实践相一致的框架。 三 更多智能体人工智能框架 新加坡资讯通信媒体发展局 (IMDA) 和加州大学伯克利分校的框架近期已发布,但并非仅有的人工智能代理治理方案。还有其他一些模型概述了应对人工智能代理带来的风险的流程和程序。让我们来看看其中的四个。 1.Agentsafe 2025 年 12 月,三位爱尔兰 IBM 专家发表了一篇论文,提出了Agentsafe,这是一个与工具无关的基于 LLM 的代理系统的治理框架。 实际上,Agentsafe“通过将抽象的风险类别映射到一套结构化的技术和组织机制,将麻省理工学院人工智能风险库付诸实践”,并针对特定代理的风险进行定制。它还对风险行为施加约束,将高影响行为升级至人工监督,并基于部署前的事件场景(包括安全性、隐私性、公平性和系统安全性)评估系统。据作者称,该框架通过证据和可审计性提供保障,提供了一种将风险与测试、指标和来源联系起来的方法。 Agentsafe 似乎是一个非常有前景的框架,是传统人工智能技术治理向智能体人工智能领域的自然延伸。它建立在伦理原则(问责制、透明度和安全性)之上,以符合国际标准的结构化风险管理流程为基础,并且似乎有潜力解决智能体人工智能的两大关键挑战:及时遏制和有效的人工监督。 2.AAGATE 2025年11月,在技术层面,11位企业家、研究人员和行业专家发表了一篇论文,提出了“智能体人工智能治理保障与信任引擎”(AAGATE),将其定义为“符合NIST人工智能风险管理框架(NIST AI RMF)的智能体人工智能治理平台”。该论文基于这样的假设:“传统的应用安全和合规工具是为确定性软件设计的,而不是为能够进行即兴推理的自主推理系统设计的”。 为了弥合这一差距,AAGATE将上述 NIST AI RMF 原则(治理、映射、衡量、管理)付诸实践,并针对每个 RMF 功能集成了“专门的安全框架:映射采用 Agentic AI Threat Modeling MAESTRO 框架,衡量采用 OWASP 的 AIVSS 和 SEI 的 SSVC 混合框架,管理采用云安全联盟的 Agentic AI Red Teaming Guide”。作者解释说,这种分层架构将实现“安全、负责且可扩展的部署”。 3.NVIDIA 的 Agentic AI 风险框架 2025年11月,NVIDIA和苏黎世人工智能公司Lakera的一组专家发布了一个基于智能体的AI安全框架。该框架引入了一个新颖的理念,即使用由人类监督的辅助AI模型和智能体来“协助发现、评估和缓解情境化风险”。简而言之,该风险框架涉及四类参与者: 全球情境化安全代理,可设置和执行系统范围内的策略、风险阈值和升级规则,并具有完全的可见性和可审计性。 本地上下文攻击代理,充当嵌入式红队,通过逼真的上下文感知攻击探测系统,以发现新出现的风险。 本地上下文防御代理,可在运行时应用带内保护,强制执行最小权限原则,验证工具使用情况,并遏制不安全行为。 本地评估代理,用于监控代理行为以衡量安全性、可靠性和偏差,并触发警报和治理措施。 该框架分两个阶段运行: 第一阶段:风险发现与评估。此阶段在沙盒环境中进行,旨在发现静态测试中未出现的突发风险。嵌入式攻击者可以模拟对抗性攻击(例如提示注入、恶意数据检索或不安全工具链),而评估人员则会监控完整的执行轨迹,以衡量安全性、可靠性和策略合规性。目标是识别漏洞、评估风险阈值并设计部署前防御控制措施。 第二阶段:嵌入式缓解和持续监控。此阶段将这些控制措施应用于生产环境。系统运行内置防御机制,强制执行最小权限访问、验证工具调用、应用安全防护措施,并实时遏制不安全行为。监控组件持续评估系统行为是否符合预期轨迹和预定义的风险阈值,并在必要时触发警报或启动人工干预。该系统确保安全是一个适应性强、持续进行的治理过程,能够应对行为偏差、不断变化的环境以及新出现的威胁。 4.代理风险与能力(ARC)框架 新加坡政府科技局人工智能实践部门的负责任人工智能团队在Github上发布了Agentic Risk & Capability (ARC)框架,这是一个技术治理方案,“用于识别、评估和减轻智能人工智能系统中的安全风险”。 该团队开发了一种以能力为中心的分类法,将人工智能代理分为三个主要领域: 认知能力(推理、计划、学习和决策) 交互能力(智能体如何感知、交流和影响环境或人类) 操作能力(代理人是否安全高效地执行行动) 他们还编制了一份风险登记册,将各项能力与特定风险联系起来: 组件风险(系统模块中的故障或漏洞) 设计风险(架构、逻辑或决策回路问题) 能力特定风险(由代理人的能力引起的威胁、奖励黑客攻击) 每项风险都会被映射到特定的技术控制措施(防护措施、策略、监控)以减轻其影响,从而实现风险控制的直接可追溯性。这有助于管理团队了解针对每项能力和风险应用了哪些控制措施。 四 抢占奇点先机 我们距离人工智能奇点带来的恐怖还很远,这一点我们都清楚。然而,我们对人工智能体的认知发生了改变——不再是随时准备在我们睡梦中消灭我们的人形机器人,而是复杂的软件系统——这让我们更担心后者而非前者,这并不令人意外。 目前,这些担忧是非理性的,必须放在正确的背景下看待。而正确的背景是,人工智能代理给企业或个人带来的益处与潜在风险并存。全球范围内正在涌现的治理框架表明,智能体人工智能已成为我们生活的一部分,潜在风险也确实存在,一些机构正在积极主动地应对这些风险。 来源(公众号):数据驱动智能
2026-03-12 16:31 313
2026年全国两会期间,数据领域相关话题成为众多全国人大代表和全国政协委员关注的焦点。我们综合各类媒体和平台的公开报道,对2026年两会中有关数据工作的建议提案进行了梳理,倾听代表委员声音,不断提升数据工作质效。 01 张帆 全国人大代表、中国电气装备集团副总经理 构建工业数据集协同机制 以可信数据共享赋能“AI+制造” 全国人大代表、中国电气装备集团副总经理张帆建议研究出台加强工业数据集建设的财税支持政策,引导企业加大资源投入,切实提高企业对工业数据集建设的重视度和主动性,并支持行业龙头企业牵头组建行业数据共享联盟,带动产业链上下游中小企业协同参与,以此形成政府引导、市场主导、多方协同的格局。 数据交易与激发企业共享数据之间存在双向促进关系。张帆建议,大力培育数据服务商、数据标注机构等数商生态,有效提升专业化服务能力。推动数据交易模式创新,探索长期稳定、可预期、可持续的数据价值回报机制,从传统一次性买断,逐步向订阅制、版本服务费、按调用计费等多元化模式转型,充分调动企业参与数据共享的积极性、主动性。 数据安全可信流通才能实现数据高效利用。张帆建议,大力推广“数据可用不可见、用途可控可计量、全程可追溯可审计”的数据共享模式,从技术和机制上消除企业商业泄密、权属纠纷顾虑。加大对隐私计算、区块链、可信数据空间等数据安全流通关键核心技术攻关,集中力量突破性能、成本、互联互通等瓶颈制约。加快制定统一的技术标准、接口规范、互认协议,打通跨企业、跨行业数据共享通道,实现规模化、普惠化应用,支撑人工智能与制造业深度融合。 来源:证券时报网 02 周鸿祎 全国政协委员、360集团创始人 完善数据流通安全合规体系建设 为数据要素市场筑牢安全底座 周鸿祎建议,需要从规则制度、合规指引和技术能力三个层面,构建数据流通安全的闭环体系。应进一步细化数据流通安全实施细则,统一数据分类分级与安全防护的核心标准,并针对数据开放共享、数据交易、数据跨境流动等典型场景,明确实操要求。同时,可由主管部门牵头组织安全企业、第三方服务机构等共同编制数据流通安全合规指引,通过“手册+工具包”的方式,为企业特别是中小企业提供清晰、可落地的合规路径。 此外,应推动数据安全技术应用与关键技术攻关,在数据流通基础设施中同步嵌入网络安全技术和AI安全技术,通过攻关AI辅助的数据溯源、防篡改、权限审计等技术手段,提升数据流通基础设施的内生安全能力。 来源:环球网 03 黄艳 全国人大代表、三峡大学校长 完善算电协同体系 破解“算力焦虑” 全国人大代表、三峡大学校长黄艳建议,构建以三峡水电能源为特色的“绿色算力走廊”,推进以“湖北宜昌、成渝、长三角”等主节点融会贯通的低时延、高带宽算力网络建设。同时,探索“国家重大水电网络与国家重大算力枢纽”算电协同智能调度机制,实现“绿电保障算力、算力支撑产业”的良性循环。 来源:中国新闻网 04 田俊霞 全国人大代表、中国航空工业集团特级卓越工程师、中国航空工业集团公司济南特种结构研究所研究员 “制度+技术+生态”,保障数据安全、释放数据价值全国人大代表、中国航空工业集团特级卓越工程师、中国航空工业集团公司济南特种结构研究所研究员田俊霞认为,在保障安全的前提下释放数据价值,关键在于“制度护航、技术赋能和场景驱动”。田俊霞建议,一是制度上要清晰可行。各个行业的数据敏感度一般都比较高,建议进一步细化数据分级分类规则,明确各环节的数据使用边界与主体责任,建立“谁提供、谁负责,谁使用、谁守规”的可信共享机制。二是技术上要安全可控。推广隐私计算、区块链等“数据可用不可见”的技术。三是推进上要生态协同。支持行业龙头牵头搭建数据底座,打通设计、制造、维修、服务等全链条,推动数据在行业产业链中有序流动和应用。 来源:光明网 05 楼向平 全国人大代表,中国移动通信集团上海有限公司党委书记、董事长、总经理 加快释放数据要素在AI时代的创新价值 全国人大代表,中国移动上海公司党委书记、董事长、总经理楼向平认为,要加快释放数据要素在AI时代的创新价值,需要数据要素的高效率配置,建议选择部分地区开展“加强数据要素与人工智能一体化发展”创新试点,在数据跨行业、跨产业、跨城市、跨区域乃至跨境流通方面开展全链条、系统性、集成式试点,通过区域协同,为构建全国一体化数据市场发挥创新策源功能,为数据市场治理体系建设发挥先行先试作用。在创新机制方面,可以采取升级数据要素试验区,加快人工智能发展所需的数据要素机制探索,着重建设与完善面向AI产业的数据要素新型试验区;探索数据要素目录化管理及使用权开放、跨区域跨行业数据互信流通、跨境数据流通监管等机制,可以选择有条件的企业开展数据要素目录开放试点,推动区域城市间目录互通,为全国一体化数据要素市场建设提供样板。楼向平表示,聚焦技术创新,可以大模型训练所需语料和高质量数据集为突破口,探索面向语料数据的安全流通,提供脱敏、去标识化、差分隐私等技术支撑,搭建AI时代“智能数联网”,推动公共数据、科研数据、企业生产数据的合规融合、区域共享。同时,面向AI的数据要素储备,打造国家级高质量数据供给高地也很重要。楼向平建议选择部分区域,设立核心高质量数据集创新基地,融通产业、科研、公共数据,优先开展行业数据供给,鼓励有条件的单位主动将自有数据提炼为面向AI的高质量数据集,形成相应评测标准,直接服务于AI模型效能快速提升。 楼向平还建议,做好平台统筹准备,推动打造数据要素与产业融合的一体化综合枢纽,开展“数据要素×”与“AI+”融通的高价值场景创新。比如,打通行业数据沉淀、提炼、流通、融合链路,构建服务区域、辐射全国的数据要素综合融通枢纽,提供高质量数据集确权、融合的资源配置能力,以及模型和智能体服务订阅、共享的流通能力;进一步提供场景化“数据要素+AI”一体化解决方案展示、共享、复制能力,推动数据要素场景化融入AI的供给能力;构建“数据—模型—场景—产业”一体化供给模式及可复制的数据要素配置和AI模型、智能体共享流通机制,推动数据与AI形成技术协同、场景共建、生态闭环的良好格局。 来源:澎湃新闻 06 吴丰礼 全国人大代表、拓斯达董事长 加强面向具身智能的工业数据基础设施建设 全国人大代表、拓斯达董事长吴丰礼建议发挥新型举国体制优势,由具备国家级资质的科研机构或大型国有企业牵头,建设面向具身智能的工业数据公共服务平台。同时建议国家相关部门牵头,联合龙头企业、科研院所和行业组织,加快制定工业数据格式、接口协议、元数据、质量评估等国家基础标准,重点解决多源异构数据的标准化难题。 来源:证券时报
2026-03-11 13:28 94
热门文章