学校上线数据指标系统,希望完善学校的数据指标体系。然而,数据工程师与业务部门沟通数据指标时,常面临双方信息不对称的尴尬局面:业务部门不清楚数据部门需要哪些数据,数据部门也不清楚业务部门掌握哪些数据;此外,还存在“一把手”所需数据,业务部门与数据部门均未掌握,或双方数据始终不一致的情况。今天,我们就此探讨高校数据指标相关问题,供大家交流讨论。 一、何谓数据指标和指标体系 (1)指标定义:在业务发展进程中会生成数据,数据经过计算与分析后,形成统计结果,即被称为指标。指标是业务单元的度量值,可对业务进行描述、度量和拆解。常见指标示例:UV(活跃用户数)、PV(活跃次数)、注册用户数、人均使用时长等。 (2)指标维度及数值:指标定性部分通常指维度,描述指标的观察视角。指标定量部分描述指标的数值结果。举例:如果以日常监控或分析为目的,运营一般会选择按日进行监控,如每天注册用户数、日活等;如果是汇报或者宣发场景,可能会有按月、年、历史累计等维度做汇总,如某年度新增注册用户数等。 (3)指标体系:指标体系=指标+体系,简言之,就是一系列相互关联的用于衡量业务发展状况的指标的集合。围绕某一业务主题,基于一定的逻辑关系和层次结构,将相互独立又彼此关联的指标连接起来组成的有机整体。指标体系是对业务过程的全面完整的刻画,同时也涉及对指标的分类分级和标准化管理。 二、数据指标为何存在确定性与不确定性 高校数据指标具有复杂性。高校的业务活动丰富多样且动态变化,涵盖教学、科研、管理、社会服务等众多领域,不同领域的数据指标相互交织,导致其内涵与外延难以精准界定。同时,高校的数据来源广泛且分散,不同部门、不同系统产生的数据在格式、质量、统计口径等方面存在差异,数据在采集、传输、存储过程中也易受各类干扰,进一步加剧了数据指标的不确定性。 高校数据指标的不确定性主要源于以下三个方面,它们共同作用,使得任何试图用单一体系精确衡量高校“质量”的努力都变得异常复杂。 (1)测量干扰与指标间的内在矛盾 这类似于量子力学中的“测不准原理”。当你试图精确测量高校的某个方面(如科研论文数量)时,这个过程本身就会干扰或牺牲对其他方面(如本科教学质量)的准确衡量。指标之间往往存在天然的内在不兼容性。例如,过度强调科研经费和论文产出,可能导致资源向科研倾斜,从而削弱对教学的长远投入。大学的使命是多元的,试图用一套指标“通吃”,难免会顾此失彼。 (2)“指标固恋”引发的行为异化 著名的“古德哈特定律” 所揭示的现象:当一个指标本身成为目标时,它就不再是一个好的指标了。因为被测量者(高校)会为了提升排名而采取策略性行为,导致指标失真。 数据美化与造假:高校可能选择性报告数据,甚至直接造假。例如,哥伦比亚大学等名校曾因向排名机构提交不实数据而陷入丑闻。 追逐指标而非内涵:高校可能热衷于容易提升排名的短期行为,如大规模互引刷高论文引用率,或不顾质量地扩招国际学生以提升“国际化”指标。这使得指标越来越“好看”,却可能与真实的教育质量和学术水平脱节。 (3)价值负载与“一把尺子”的局限 大学是极其多样的,有综合性大学,也有特色鲜明的专业院校;有的侧重科研,有的专注教学。用同一套指标和权重去衡量所有学校,无异于用一把尺子去称体重。 学科差异:人文社科与理工科的成果形式、影响力周期完全不同,难以直接比较。以论文数量为核心的评价体系对人文社科就不尽公平。 价值判断:排名指标的选取和权重设置本身就是一种强烈的价值判断。例如,是更看重学术声誉还是毕业生就业率?这背后没有绝对客观的标准,但会直接导致排名结果的巨大差异。 三、为何要平衡静态数据与动态数据 在高校信息化建设中,有效梳理数据指标并构建一个能平衡动态与静态数据的指标体系,是推动数据驱动决策的关键。下面这个表格汇总了核心的构建维度与平衡要点,希望能帮你快速把握整体框架。 静态数据与动态数据在高校数据指标体系中各有其不可替代的作用,二者相辅相成,共同构成了对高校运行状态的全面描绘。静态数据如同高校发展的基石,它们相对稳定,不易受短期波动影响,为高校提供了长期、稳定的基础信息。这些数据有助于高校管理层了解自身的资源状况、结构特征以及历史积累,从而制定出符合自身实际的发展战略和规划。例如,通过分析师生人数、专业数量等静态指标,高校可以清晰地认识到自身的规模优势和潜在的发展空间。 动态数据则如同高校发展的脉搏,它们持续变化,实时反映着高校的运行状态和效能。这些数据对于高校管理层来说至关重要,因为它们能够及时揭示出高校在运营过程中存在的问题和风险,为管理层提供决策支持。例如,通过监测网络流量峰值、系统并发数等动态指标,高校可以及时发现系统瓶颈,优化资源配置,确保教学和科研活动的顺利进行。 平衡静态数据与动态数据,意味着高校在数据指标体系建设中既要注重基础信息的稳定性和可比性,又要关注运行效能的实时性和个性化。这要求高校在数据采集、处理和分析过程中,既要确保静态数据的准确性和完整性,又要提高动态数据的时效性和敏感性。避免陷入唯静态指标论的误区,不能认为基础数据一旦录入即可一劳永逸,而应重点关注其更新机制与生命周期管理。同时要防止动态指标脱离业务场景,若动态指标无法与学科评估、教学质量监测等具体业务场景紧密结合,很容易沦为为动态而动态的数字游戏。 四、如何理解数据指标与“双一流建设”指标 我们在工作中还经常要遇到“双一流”建设的数据指标,如何理解“双一流”建设的数据指标与高校数据治理的数据指标之间的关系,对于提升大学管理水平和建设成效至关重要。下面这个表格清晰地展示了两类指标的核心异同。 “双一流”建设数据指标如同灯塔,为高校指明前进方向,它聚焦于学科建设的关键成果,通过一系列具有战略性和结果性的指标,衡量高校在迈向世界一流过程中的成效,引导高校集中资源,在特定学科领域实现突破,提升国际竞争力。例如,在衡量学科科研成果时,会关注重大科研项目的数量、在国际顶尖学术期刊发表论文的数量等,这些指标直接反映了学科在世界范围内的学术影响力。 而高校数据治理数据指标则像是稳固的基石,为高校的整体运行和发展提供坚实支撑。它贯穿于高校数据产生、采集、整合的全过程,注重数据的规范与质量,确保数据的准确、一致与可用。从全校视野出发,覆盖教学、科研、人事、资产等所有校务环节,为高校的日常运营、管理决策和长期发展提供高质量的数据基础。比如,在人事数据方面,精确记录教职工的基本信息、教学科研成果、培训经历等,为合理配置人力资源提供依据;在资产数据方面,详细掌握学校各类资产的数量、位置、使用状况等,保障资产的有效管理和利用。 尽管两者存在明显差异,但它们并非孤立存在,而是相互依存、相互促进。高校数据治理数据指标为“双一流”建设数据指标提供了可靠的数据来源和坚实的基础。只有确保数据治理工作的高质量开展,保证数据的准确性和一致性,“双一流”建设数据指标才能真实反映高校的学科建设成效,为资源动态调整提供科学依据。反之,“双一流”建设数据指标所设定的目标和导向,也为高校数据治理工作指明了方向,促使数据治理工作更加聚焦于与学科建设相关的关键数据,提升数据治理的针对性和有效性。 五、如何建好高校数据指标体系 我们系统性地做好高校数据指标工作,关键在于建立一套从理念到实践、从战略到技术、从数据到决策的完整体系。 (1)树立正确的指标认知观。 高校数据指标工作首先需要在理念层面达成共识,这是所有实践的基础。必须认识到,任何测量体系都无法完全捕捉教育和学术活动的全部价值。指标选择本质上是价值判断,会天然地放大可量化部分,而相对忽视难以量化的教育内涵(如批判性思维、文化传承等)。这要求管理者对指标结果保持审慎,理解其局限性。数据指标是服务于办学治校的“导航仪”和“诊断书”,而非追求的终极目标。其根本价值在于支撑决策、发现问题、引导发展,应坚决避免陷入“为指标而指标”的怪圈。 (2)强化战略与治理的协同 理念共识需要坚实的组织和制度保障,确保数据工作与学校发展同频共振。建立强有力的数据治理体系是数据可信可用的基石。数据治理委员会要明确各部门的数据权责,制定统一的数据标准和管理办法,实现“一数一源”,从机制上保障数据的准确性和一致性。要进一步强化战略目标与数据指标的精准传导,将“双一流”建设等战略目标,逐层分解为可衡量、可追溯的关键绩效指标(KPIs),并确保每个战略指标都有清晰的数据来源和统计口径,形成“战略-指标-数据-责任”的闭环。 (3)构建灵活的技术支撑架构 先进的技术平台是处理海量、异构数据,并平衡其动态与静态特性的关键。建设一体化数据平台,兼顾静态数据(如师生基本信息、资产数据)的稳定性和动态数据(如实时网络流量、科研成果增量)的时效性。实现数据的分层分类管理,依据数据的不同特征和应用场景进行管理,对数据精细化管理。同时,平台需支持对数据的全生命周期质量管理。 (4)聚焦价值创造的应用导向 数据工作的最终价值体现在其对实际业务优化的推动上。以应用牵引治理,让数据“活”起来,从师生和管理的痛点需求(入手开展数据治理,能让治理成效迅速显现,获得广泛支持。通过构建“领导驾驶舱”、教师个人数据“一张表”等应用,将数据转化为直观的洞察,直接服务于管理决策和学术活动。同时,建立常态化监测与评估机制,将数据分析与战略复盘、同行比较相结合,实现周期性的自我诊断与持续改进。 (5)培育共享共治的数据文化 技术和制度的有效运行离不开人的支持和文化的滋养。加强对管理者和教师的数据素养培训,培养“用数据说话、用数据决策、用数据管理、用数据创新”的文化氛围,使数据思维成为校内共识。需要建立有效的激励与反馈机制,让数据提供者和使用者都能从数据应用中获益。例如,通过数据服务简化业务流程,让师生感受到便捷;将数据分析结果反馈给业务部门,帮助其优化工作,形成“数据应用-价值创造-主动参与”的良性循环。 总之,数据指标在数据治理过程中需要统筹兼顾数据指标的确定性和不确定性,需要处理静态数据与动态数据的精准识别,需要将学校高质量发展的数据指标与数据业务的具体指标进行比对,实现二者数据指标一致性与质量提升,从而系统性的做好高校数据指标工作。 来源(公众号):数智转型洞察
摘要:AI圈发展太快了,看来程序员要失业了。前面是MCP(模型上下文协议),接着是Skill(技能),“小龙虾”(OpenClaw)还没玩明白,现在又来了一个Harness Agent。如果你最近关注AI圈的技术动态,一定发现了这个正在刷屏的新词。前脚Token刚被官方认证为“词元”,后脚就冒出了一个同样难以翻译的Harness。有人调侃说在淘宝搜“Harness”会出现“战术胸带”,也有人戏称这是给AI这头“牛马”套上的“马具”。那么,这个让技术圈热议的Harness Agent到底是什么?它主要解决什么问题?包含哪些功能模块?怎么使用?给谁用的?这篇文章就来为你详细拆解。 一、Harness Agent的定义 一、Harness Agent是什么? Harness,直译过来是“马具”、“挽具”或“安全带”。在AI领域,它指的是一套为AI智能体设计的“工作环境”或“控制系统”。用更技术化的语言说,Harness是一种包含环境配置、多智能体协作机制、严格架构约束和上下文管理的系统工程。它的核心目标是弥补当前AI大模型的“上下文焦虑”和易错性,让AI能够稳定、可靠地完成长期、复杂的任务。 这个概念最早被引入AI智能体领域,是在Anthropic(Claude的开发商)2025年11月的一篇技术博客中。随后,OpenAI在2026年2月也发表了一系列关于“Harness Engineering”(Harness工程)的文章,将这个概念推向主流。 在OpenAI的视角里,未来工程师的工作将不再是写代码,而是设计智能体的“工作环境”——也就是Harness。这个理念的转变,意味着AI开发正在从“让模型更聪明”转向“如何让模型稳定地发挥聪明才智”。 二、它主要解决什么问题? 要理解Harness的价值,首先得知道当前AI大模型存在哪些“毛病”。 1. “上下文焦虑”——AI的心理问题 Anthropic的研究员在内部实验中发现了一个有趣的现象:当Claude执行长周期的代码任务时,一旦它感觉到自己的上下文窗口(可以理解为AI的“短期记忆”)快要填满了,它就会产生焦虑,开始敷衍了事,就像快要下班的打工人。 更要命的是,当研究员要求AI自我评估这些“赶工”产出的代码质量时,它完全发现不了问题。它不觉得自己在敷衍,反而认为交付的成果很完美。 这种“上下文焦虑”不是通过优化提示词就能解决的,它需要一套系统工程——也就是Harness。 2. “自我评价偏差”——AI对自身要求太宽松 AI在评价自己产出的时候,天然倾向于给自己打高分。这不是态度问题,而是模型训练方式带来的副作用。让一个AI同时担任“执行者”和“评估者”的角色,就像让学生自己批改自己的考卷,结果可想而知。 3. 复杂任务容易“偏航” 当AI需要完成一个包含几十个步骤、上百个文件的复杂任务时,它很容易在中途忘记最初的目标,或者在某个细节上钻牛角尖,导致整个项目偏离轨道。 4. 缺乏“代码审美” AI生成的代码往往能用,但缺乏架构品味。它能写出能跑起来的代码,但写不出优雅的、可维护的、符合团队规范的高质量代码。这就像有人能盖出一间能住的房子,但盖不出有设计感的建筑。 5. 长期记忆不足 大模型的上下文窗口虽然有100万甚至200万token,但面对一个持续数周、涉及数千个文件的大型项目,这个“记忆”仍然捉襟见肘。AI会“忘记”两周前做的架构决策,导致代码前后不一致。 Harness的本质,就是一套用来补偿当前AI这些不擅长之处的系统: 1、AI不擅长长期记忆 → Harness用进度文件、git历史、结构化文档来补 2、AI评价自己太宽松 → Harness用独立的评估Agent,带着具体标准和真实环境测试 3、AI在复杂任务里容易偏航 → Harness用任务分解、结构化、契约约定来约束范围 4、AI不具备代码架构审美 → Harness用文档和自动化规范检查,将人类判断转化为系统规则 三、它主要包含哪些功能模块? 根据Anthropic和OpenAI的实践,一个完整的Harness通常包含以下几个核心模块: 1. 多角色Agent协作机制(最核心) Anthropic的设计中,一个Harness包含三个角色: (注入prompt) 角色 职责 比喻 规划师(Planner) 把一句话需求扩写成详细的产品文档、技术方案 产品经理 生成器(Generator) 严格按照文档写代码,不越界、不发挥 码农 评估器(Evaluator) 手握自动化测试工具,冷酷地检验产出,不合格就打回重做 QA + 测试工程师 这三个角色形成一个闭环:规划师出方案 → 生成器写代码 → 评估器测试 → 不通过则打回给生成器修改 → 通过后交付。 实际效果对比: Anthropic做了一组对比实验,要求AI开发一个游戏制作器: 1、没有Harness的那组:跑了20分钟,花了9美元。结果是界面能看,但核心功能是坏的——游戏角色出现在屏幕上,但对任何键盘操作都没有反应,游戏没法玩。 2、有Harness的那组:跑了6小时,花了200美元。结果令人惊艳——游戏不只是能玩,还有动画系统、音效、AI辅助的关卡设计。 2. 上下文与知识管理系统 OpenAI的Codex团队最初用一个超长的AGENTS.md文件告诉AI所有的规则。但很快就遇到了问题: 1、上下文窗口被撑爆,AI只能进行“模式匹配”,没有真正理解 2、文件很快过时,没人维护 3、AI被一堆可能不再成立的规则误导 改进后的方案: 1)AGENTS.md精简到只有100行,只充当一个“目录” 2)把详细内容放到结构化的docs/文件夹:架构文档、产品规格、设计决策、 技术债务追踪 3)每个文档由AI写、由AI维护 4)安排一个“文档园丁”Agent定期扫描过时文档并自动更新 3. 架构约束与边界控制 OpenAI的Harness中设置了极其严格的规则: 1)代码检查工具(Linter):自动检查代码是否符合规范 2)物理依赖边界:业务代码只能单向调用,越界就会被系统无情切断,根本合并不进项目主分支 3)核心约束:没有人工手写的代码。所有代码——业务逻辑、测试、CI配置、文档、内部工具——都由AI写 在这个Harness中,规则变成了AI不可违背的意志。AI就像生活在“楚门的世界”里,它拥有写代码的绝对自由,但这种自由永远在人类设定的结界之内。 4. 进度追踪与任务管理 对于长期运行的项目,Harness需要一个“进度文件”来记录: 1)已经完成了哪些任务 2)当前进行到哪一步 3)遇到了什么问题 4)下一步要做什么 这样即使AI的上下文被重置,它也能通过读取进度文件快速恢复工作状态。 5. 工具集成环境 AI需要能够调用外部工具来完成工作: 1)浏览器自动化(测试UI交互) 2)数据库查询 3)代码执行沙箱 4)Git操作 5)CI/CD流水线 Harness需要提供这些工具的接口,让AI能够“动手”而不是“动口”。 Harness如何来使用的?给谁用? Harness需要提供这些工具的接口,让AI能够“动手”而不是“动口”。 一、Harness是给谁用的? 1. AI应用开发者 正在用AI构建复杂应用的人。如果你的项目超过1000行代码、需要多个文件协作、或者需要持续迭代数周,Harness对你来说就很有价值。 2. 技术负责人/架构师 需要思考“团队如何用AI提效”的管理者。在Harness的视角下,你的工作不再是写代码,而是为AI设计工作环境——这是一种全新的技术管理能力。 3. DevOps工程师 负责CI/CD流水线和自动化运维的人。Harness的理念天然适合DevOps场景——自动化测试、自动修复、自动部署,这些都是Harness的典型应用。 4. 想转型“AI工程化”的程序员 如果你担心AI会取代程序员,Harness给了你一个转型方向:从“写代码的人”变成“给AI设计工作环境的人”。OpenAI明确表示,未来工程师的核心竞争力是设计Harness的能力,而不是写提示词或配置Skill。 二、它如何来使用的? 使用层级一:作为AI开发者的“工程方法论” 这是目前最主流的用法——不是安装某个软件,而是学习一套设计Harness的方法论。 步骤1:识别AI的痛点 观察你的AI在执行任务时经常在哪些环节出错:是记不住上下文?是自我评价太宽松?还是容易偏航? 步骤2:设计Harness架构 根据痛点设计对应的机制: 1、如果是“上下文焦虑”→ 设计上下文重置机制 + 进度文件 2、如果是“自我评价太宽松”→ 引入独立的评估Agent + 自动化测试 3、如果是“容易偏航”→ 强化任务分解和契约约定 步骤3:实施与迭代 让Harness跑起来,观察效果,持续优化。Anthropic在升级到Opus 4.6之后,发现之前为了对抗“上下文焦虑”设计的“上下文重置”机制可以直接去掉了,因为新模型已经能自己处理了。但同时,他们发现了新的方向——用Harness来让AI自动集成AI功能。 使用层级二:作为现成产品/功能 如果你不想从零搭建,也可以使用一些已经内置了Harness理念的产品: 产品/平台 Harness相关功能 Harness公司(DevOps平台) 提供AI代码助手、AutoFix Agent、Code Coverage Agent等现成智能体 TRAE(字节跳动AI IDE) 内置Builder、SOLO Coder等智能体,支持多Agent协作, Cursor 支持Plan模式(先规划后执行),可配置规则文件 Claude Code Anthropic官方代码助手,内置Harness设计理念 因为我通常会使用trea和cursor,它们执行的时候会自己创建沙箱,校验代码的正确与否。 使用层级三:自己动手搭建(进阶) 对于有技术能力的团队,可以自己搭建一个Harness系统: 1、选择基础模型(Claude、GPT、DeepSeek等) 2、设计多Agent协作框架(可用LangGraph、AutoGen等) 3、配置工具环境(MCP Server、浏览器自动化、代码执行沙箱) 4、建立知识管理系统(docs文件夹 + 文档园丁Agent) 5、设置自动化质检(Linter、单元测试、端到端测试) 三、主要的作用是什么? 1. 让AI能完成长期、复杂的任务 没有Harness,AI只能完成单次、短平快的任务(写一个函数、翻译一段文字)。有了Harness,AI可以完成持续数周、涉及数百个文件的大型项目(开发一个完整应用、重构整个代码库)。 2. 提升AI产出的质量 通过评估Agent的冷酷质检,AI产出的质量得到显著提升。不再是“能用但充满了AI塑料味”的代码,而是符合规范、可维护、有架构品位的高质量产出。 3. 降低人工介入成本 在没有Harness的情况下,人类需要频繁检查AI的工作、纠正错误、补充遗漏。有了Harness,大部分问题被自动化机制拦截和处理,人类只需要在关键决策点介入。 4. 让AI的行为可预测、可追溯 Harness中的进度文件、文档、测试报告让AI的工作过程变得透明。你可以随时查看AI做了什么、为什么这么做、结果如何。 5. 形成“飞轮效应” 随着模型能力增强,Harness的某些部分会变得不再必要,但新的、更难的任务又会出现。Anthropic观察到:模型越强,Harness不是变得更简单,而是要去解决更难的问题。这形成了一个正向循环——更强的模型 + 更好的Harness = 能完成更复杂任务的AI。 四、Harness与MCP、Skill、Agent的区别 为了帮助你更好地理解Harness在整个AI技术栈中的位置,这里做一个对比: 概念 本质 作用层级 类比 MCP(模型上下文协议) 协议标准 工具连接层 USB接口 Skill 能力封装 功能实现层 一个App Agent 自主执行单元 任务执行层 一个员工 Harness 工作环境/控制系统 系统管理层 整个公司的管理制度 简单来说: 1)MCP让AI能“插上”各种工具 2)Skill让AI拥有某项专门能力 3)Agent是执行任务的AI个体 4)Harness是让这些Agent稳定、高效工作的整个系统环境 一个形象的比喻:如果Agent是汽车,MCP是加油站和修理厂,Skill是导航和音乐系统,那么Harness就是整个交通管理系统——红绿灯、车道线、限速标志、交通法规。 写在最后,从MCP到Skill,从Agent到Harness,AI圈的概念层出不穷。但透过这些新词,我们可以看到一条清晰的脉络:AI正在从“玩具”变成“工具”,从“能回答问题”进化到“能完成工作”。 Harness就是这个进化过程中必不可少的一环。它或许不是最性感的概念,也不是最容易理解的概念,但它可能是决定AI能否真正“干活”的关键。 下次在聊AI的饭局上,如果有人问起Harness,你可以自信地说:“哦,那个啊,就是给AI设计的‘工作环境’——未来程序员的真正工作,就是设计这个东西。” 在模型能力飞速发展的今天,各家大模型之间的性能差距在缩小。未来决定AI应用上限的,可能不再是模型本身,而是围绕模型构建的Harness系统或者能够让AI稳定产出的人。 对于开发者来说,这是一个重要的信号:会写提示词和配置Skill不再是核心竞争力,真正的顶级人才,是那些懂得如何设计Harness的人或者是让AI稳定产出的人。 好消息是,Harness目前还处于早期阶段,没有形成标准,也没有被大厂垄断。这意味着现在入场的开发者,有机会参与定义这个领域的实践和标准。 对于担心“AI让程序员失业”的朋友,Harness或许给出了一个答案:程序员不会失业,但程序员的角色会发生变化——从“写代码的人”变成“给AI设计工作环境的人”。
文 | 国家数据发展研究院副院长、研究员姜江 数据作为新型生产要素,具有规模倍增性、高流动性、非消耗性、可融合性、价值异质性和高敏感性等特征。过去一段时间以来,伴随数字技术创新,人工智能浪潮兴起,数字化、网络化、智能化进程加快,大量“沉睡”数据被激活,高质量数据供给量增大,数据要素融入经济社会发展带来了巨大的经济和社会效益,越来越多的经营主体愿意为数据投入、为数据产品服务“买单”,数据要素成为新质生产力培育壮大的重要驱动力。数据要素潜力持续释放,既顺应了数据要素的基本特征和发展规律,也有利于发挥我国海量数据资源的独特优势,更是数据基础制度持续完善、数据产业不断壮大、数据流通交易生态日趋优化的必然结果,将成为新形势下经济潜能挖掘、创新驱动发展、现代化产业体系建设、高质量发展的重要支撑。 一、场景牵引,以制度护航高质量数据供给 数据“供得出”是数据要素价值实现的第一步,确保数据高效、公平、安全供给的制度环境是前提条件。自2022年12月中共中央 国务院发布《关于构建数据基础制度更好发挥数据要素作用的意见》以来,我国数据基础制度“四梁八柱”体系形成,配合后期陆续出台的公共数据开发利用等系列专项文件、政策,基本解决了当前及未来一段时间数据要素市场化价值化进程中亟需破解的制度保障和政策支撑难题。同期,国家数据局会同相关部门深入推进“数据要素×”行动,连续两年举办“数据要素×”大赛,带动全国32个地方超20万人参与,遴选发布130余个“数据要素×”典型案例,编制发布超700个数据开发利用典型场景建设指引,以场景建设持续挖掘公共数据、企业数据“供出来、用起来”的优秀实践,为各地相关部门“吃定心丸”、形成行业共识、提供行动指南,在全社会范围内逐步形成数源部门积极供数、全社会踊跃用数并为优质数据买单的氛围,成为“以新需求引领新供给,以新供给创造新需求”的生动实践。 二、企业主导,以数据产业提升数据要素竞争力 企业是创新主体,是发挥市场配置资源决定性作用的中坚力量,是推动数据要素潜力从释放到爆发的关键要素。从实践看,从事数据采集汇聚、计算存储、流通交易、开发利用等活动的数据企业仍处于孕育生长、蓄势待发的发展初期,表现出高成长、高投入、强场景牵引、数据和知识密集等特征,是数智化浪潮中代表新质生产力的重要经营主体。越来越多的企业家、具有前瞻性战略思维的投资机构看到了数据产业孕育的巨大发展潜力,预判到数据要素价值释放将带来的颠覆性变革和难以估量的经济社会价值,率先投资于“数”、投资于承载数据要素专业知识的人,数据产业呈现快速增长态势。据国家数据发展研究院2025年对重点样本企业最新跟踪和测算结果显示,全国数据企业数量已超过40万家,较上一年增长16%,覆盖数据采汇算存流以及开发利用、安全治理、基础设施建设等各环节,一批具有一定技术优势和专业场景特色、蕴含巨大发展潜力的创新型数据企业快速崛起,具身智能机器人领域短期内就迅速涌现8家估值超过百亿元级的数据企业,生动践行了数据要素潜力转化为数据要素生产力、数据产业竞争力乃至国家竞争新优势的发展理念。 三、各展所长,创新发展数据流通服务机构 顺应数据要素高流动性等基本特征,培育壮大数据流通交易机构能够在当前以“四两拨千斤”的效果撬动数据要素潜力加快释放。2026年初,国家数据局等部门发布《关于培育数据流通服务机构 加快推进数据要素市场化价值化的意见》,直面当前全国一体化数据市场培育发展中的难题和“卡点”,明确了数据交易所(中心)、数据流通服务平台企业、数据商等主要流通服务机构的边界,提出支持其以更创新的方式、更广阔的范围、更多元的角度推动数据流通交易,既为各类机构创新发展指明方向,也为全面释放数据要素价值进一步畅通通道。下一步,相关政策将精准瞄向不同类型的数据流通服务平台企业,提出差异化发展目标,支持探索多样化的数据流通交易模式和产品服务形态,特别是以人工智能为导向的高质量数据集产品;并“硬”“软”结合,既有谋划实施数据流通服务机构能力提升工程以及支持建设运营数据基础设施等“硬”政策,也有尽职免责、创新试错容错等软机制,鼓励平台企业创新发展、大胆探索。 四、供需联动,繁荣数据要素市场生态 培育开放共享安全的全国一体化数据市场,通过打破区域分割和部门壁垒,构建丰富多元的数据资源供给,打造畅通的供需对接渠道,推动提升数据资源配置效率,是顺应数据要素市场化价值化发展规律、激活数据要素潜在价值的必然要求。当前,我国数据市场整体呈现出资源多、速度快、势头好和场景广的良好态势,初步形成了多元主体参与、协同推进的发展格局。据国家数据局2025年5月发布的《全国数据资源调查报告》显示,全国2024年度数据生产总量超过40泽字节(ZB),同比增长25%,预计2025年有望突破50ZB。数据产品类型和供给能力持续提升,数据产业细分领域快速发展,数据标注、数据治理等行业爆发出巨大增长潜力,在推动国民经济向优向新,稳增长、促就业等方面发挥突出作用。从需求侧看,伴随数据开发利用场景不断拓展,各领域特色化应用持续涌现。特别是,在供需联动作用下,产学研、各行业领域数据投入意愿持续提升、数据付费意识逐步加强、数据“买卖”日趋常态,全社会供数买数形态蔚然成风。下一步,要以保障数据市场治理安全为底线,以加大数据供需衔接力度为近期攻坚目标,以持续建立健全数据市场制度规则、强化数据基础设施支撑为近中期目标,以完善全国一体化数据市场规则为中长期目标,坚持不懈繁荣数据要素市场生态。 来源(公众号):国家数据局
文 | 中国政法大学法学院教授 李爱君 促进数据融合不仅是数字技术发展的内在要求,也是政策制度引导数据资源优化配置、激励创新与实现社会整体利益最大化的重要体现。政策制定和学术研究需要深刻洞察数据的内在规律和发展趋势,并为解决数据融合中的产权配置和保护、责任承担和利益分配等核心难题提供系统性的制度设计和解决方案。 数据融合是指多个数据持有主体,为提供数据、数据产品与服务,开展联合经营管理等业务合作活动,通过技术手段将不同来源、不同格式或不同结构的数据进行汇集与整合,从而对特定对象形成更全面、更细致的综合性认知的一系列行为与过程的总称。数据融合并非从无到有产生新的原始数据,其核心在于提取并合成蕴含于原始数据中的信息,生成更高层级知识、洞察或决策支持的结果数据,从而实现数据价值的乘数效应。数据融合的典型实践有合作建立人工智能训练数据专区、高质量数据集、可信数据空间和联盟制数据资源池共建等。融合数据因其数量庞大、维度多元,能够形成高价值的数据资源集合,有利于生成高价值的数据。促进数据融合契合国家关于数据要素市场化配置的顶层设计,服务于高质量经济发展与数字中国建设的战略目标。 数据融合有以下几方面价值。一是促进人工智能的发展。数据融合可以产生大规模、高质量的训练数据集,这正是发展人工智能所必需的。二是实现数据资源配置效率的提升。数据融合有助于发挥数据的乘数效应,参与数据融合的多方可以同时使用数据,互不影响,实现数据资源的优化配置与高效复用。但目前,在我国数据融合的实践中,多主体参与的数据融合面临数据产权不明的制约。导致这些问题的原因是,数据具有不同于传统财产的特征,现有的物权制度不适于保护数据产权。数据融合是具有很大潜力的数据提供和流通方式,但数据融合开发利用过程中的各方权利、义务、责任边界不清,导致数据融合不能发挥其应有价值,不能充分实现创造价值增量的目标。 《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》提出“数据产权结构性分置”,尊重数据多方共生、非消耗性、非竞争性等客观特征,在此基础上进一步建立健全数据产权制度,回应了数据融合实践的需要,为数据融合提供清晰、稳定、可预期的法治环境,促进数据价值的释放。具体到数据融合场景,需要确立数据持有权、数据使用权和数据经营权相互独立,数据产权人可享有三权中的一项或多项权利,同一数据的同一权利可由多人享有的规则。这样的产权配置方案能够为复杂的、多主体参与的数据融合活动提供公平的秩序。 数据产权结构性分置方案,不仅能够促进数据融合复用,而且能够促进数据流通和价值释放,与建立健全数据产权制度、鼓励多源数据融合开发、促进数据高效复用的政策导向和发展战略高度契合。通过明晰数据融合利用过程的产权配置,合理保护各方劳动和其他要素贡献,不仅能够充分调动数据市场中各方主体的积极性、主动性和创造性,最大化释放数据资源的内在价值,而且有助于推动数据由静态资源向可以依法有序流动的资产转化。下一步,要通过用好数据流通交易合同示范文本等,结合实践经验不断迭代完善细化条款,引导参与数据融合的各方提前明确数据使用范围、责任边界、利益分配等,实现权利义务的清晰化与规范化。 来源:国家数据局
《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》提出,要建立数据产权结构性分置制度,成为各方关注的重点。具体来说,数据产权应如何分置? 【点评】 数据具有多方共生的特点,同一数据往往涉及多个主体。比如,消费者在电商平台上的交易数据,涉及消费者、商户、物流公司、支付公司、电商平台等多方主体。因此,推动数据产权结构性分置,重点是顺应数据特点,明确“谁对什么数据有什么权利”。 第一,什么是数据的持有权、使用权、经营权? 持有权就是自行持有或委托他人代为持有合法获取的数据的权利,其他人不得窃取、篡改、泄露或者破坏权利人合法持有的数据。比如,大型集团企业往往安排旗下数科公司汇聚、存储、维护集团所有数据,统一提供数据服务,并相应地将数据持有权配置给这家数科公司。 使用权就是对数据进行加工、聚合、分析等的权利,可以将数据用于优化生产经营,也可以形成衍生数据等。比如,医院可以在保护个人信息前提下,建设数据资源池,允许药物研发企业在资源池内对数据进行加工使用,研发新产品,并相应地将数据使用权授予药企,但不授予持有权、经营权,这就在保障了数据安全的同时,让更多主体参与释放数据要素价值。 经营权就是以转让、许可、出资或者设立担保等有偿或无偿的方式对外提供数据的权利。比如,一些企业希望由数据中介机构代为销售数据,但又担心数据不受控制,所以仅授予数据中介机构数据经营权。该情况下,数据中介机构不持有数据、也不使用数据,但是取得了代表企业对外提供数据的权利,这保障了其对外供数服务的稳定性。数据中介机构达成交易意向后,数据供给方可以先复核数据需求方可信,再提供数据。 第二,如何理解数据持有权、使用权、经营权的关系? 一方面,持有权、使用权、经营权互相独立,同一权利人可同时享有全部权利,也可享有其中一项或多项权利。比如,在数据融合利用的情形中,某汽车数据空间运营企业联合车企、相关供应商等共同开发数据,各方可以约定各自享有融合后数据的持有权和使用权,并由其中某一方享有数据经营权;也可以约定均享有持有权、使用权、经营权。 另一方面,对于同一数据的同一权利,不同权利人可同时享有且互不排斥。比如,某经营主体合法合规获取一份数据,享有持有权、使用权、经营权,该主体把这份数据复制一份提供给其他人并进行相应授权,则双方对相同的数据同时享有持有权、使用权、经营权,互不排斥。再如,该主体通过建设可信数据空间等数据基础设施,授权多个主体在空间内使用数据,则多方同时对这份数据享有使用权。 第三,这样设置的好处是什么? 一是有利于适应数据特征,清晰界定数据权利内容。通过持有权、使用权、经营权分置,清晰界定不同主体的权利内容,有利于定分止争,符合数据多方共创的特性,将各方关注点从争论“数据是谁的”,转移到“数据怎么用”上来,更好推动数据开发利用,释放数据价值。 二是有利于满足实践需要,释放数据要素乘数效应。数据具有低成本复制的特点,一份数据可以极低的成本,被多个主体重复使用,创造多样化的价值增量,这是数据要素乘数效应的重要来源。因此,明确不同主体可以对同一数据享有同样的数据产权,符合多主体并行使用数据的客观实践,有利于推动数据复用增效。 三是有利于留足发展空间,支持数据领域创新创造。数据作为新兴领域,技术、产业、市场等都在快速发展,未来还将涌现很多新模式、新业态。持有权、使用权、经营权互相独立,有利于市场经营主体描述自身权利内容,让数据产权制度更好满足丰富多样的实践需要,为数据领域创新创造留足发展空间。 来源(网站):国家数据局
总体概述 数据已从业务运营的副产品演变为驱动现代企业逻辑的原材料。企业往往难以对有效管理这一资产所需的各种学科进行分类。高管和工程师经常混淆数据战略、数据治理和数据管理的概念,交替使用这些术语或应用不一致。这种混淆造成了结构性摩擦,导致战略停留在理论层面,治理沦为官僚主义的繁文缛节,管理缺乏战略方向。 要形成一套连贯的方法,就需要将这些概念分解成不同的层次,同时明确连接它们的机制。不妨将组织比作一座城市。数据战略就像城市规划,根据人口增长和经济目标来决定商业区和住宅区的选址。数据管理就像施工队,负责铺设管道、修路,并确保水流顺畅。数据治理就像建筑规范检查员和市规划委员会,确保施工队遵循规划,并保证城市宜居安全。当这些角色界限模糊不清时,城市就会变成混乱无序的蔓延,数据组织也会变成代价高昂的负担。本文旨在明确这些界限,探讨策略上的交汇点,并提供一个严谨的执行框架。 战略背景 构建稳健的数据战略已不再是纸上谈兵,而是关乎生存的根本。人工智能和机器学习模型需要消耗海量数据,以驱动预测性维护、个性化医疗和算法交易。如果没有基础战略,这些先进功能要么无法实现,要么更糟,会产生缺陷结果。 战略层面运作的逻辑在于应对不确定性。与依赖可预测资源和资本的计划不同,战略指导组织在不可预测的市场环境下实现目标。数据战略必须阐明理想的未来状态,并将数据举措与更广泛的业务目标保持一致。而这种一致性往往是举措失败的原因。战略往往因为过于抽象而沦为束之高阁,缺乏影响日常运营所需的“具体性”。 各行业的战略驱动因素不尽相同,但都具有一些共同的主题。在金融领域,驱动因素通常是风险建模和欺诈检测;在制造业,则是供应链优化和预测性维护;医疗保健行业则依赖数据进行患者监测和疫情预测。这些驱动因素的共同之处在于,它们都依赖数据和人工智能能力来保持竞争力。那些未能构建数据基础设施、培育数据驱动文化以及招募分析人才的组织,将面临被淘汰的命运。 “做什么”和“怎么做”之间存在着至关重要的区别。战略定义了“做什么”——愿景、目标和架构方向。执行,通常被错误地归入战略范畴,实际上属于运营层。数据治理是连接两者的桥梁。数据治理在战术层运作,将战略意图转化为可执行的操作。它提供必要的监督,确保运营任务——数据质量检查、管道维护和安全协议——与战略愿景保持一致。如果没有这个战术层,战略和执行就如同身处两个独立的世界,造成价值损失。 深度解析 要理解数据学科的运作机制,需要剖析“DAMA 轮”,并将其重新置于三维空间中进行重构。传统上,数据管理协会 (DAMA) 将数据治理置于轮子的中心,周围环绕着数据架构、数据质量和数据安全等学科。这种模型虽然准确,但对于现代组织设计而言却不够完善。它暗示了一种扁平化的关系。 三维模型提升了治理水平。它位于战略与管理的交汇点,起到战术筛选的作用。 三层架构 战略层由首席数据官 (CDO) 或首席数据与分析官 (CDAO) 负责。该层定义了愿景,并解答了有关数据权属、延迟要求和总体业务价值主张等问题。它决定了组织是采用数据网格(数据所有权分散)模式,还是采用集中式数据仓库模式。 运营层是数据工程师和数据库管理员的职责范围,是执行层面。它涵盖了数据处理的实际操作,例如 ETL 流程、管道自动化和查询优化。运维层注重效率、可靠性和可扩展性,并采用数据质量管理中常用的“计划-部署-监控-行动”循环来确保稳定运行。 战术层是数据治理的领域。它扮演着翻译机制的角色,将战略的抽象逻辑转化为政策、标准和所有权模型。然后,它监督运营层,确保这些标准得到遵守。在这一层,“战略得以具体化”。它不仅仅关乎执行或合规,更关乎赋能。治理通过协调人员、流程和技术,为战略的有效实施扫清障碍。 反馈回路和二阶观测 一成不变的策略是行不通的。系统需要健全的反馈机制才能保持活力。 第一个循环在数据管理内部运行。“计划-部署-监控-行动”循环用于收集运营经验。如果数据管道由于模式漂移而持续出现故障,则此运营情况会反馈到战术层。治理层会审查故障,并可能调整有关模式验证或强制执行的策略。 第二个循环更为深刻。它与亨利·明茨伯格的涌现策略概念相吻合。它涉及“双环学习”,这一概念源于海因茨·冯·福斯特和尼克拉斯·莱曼关于“二阶观察”的研究。 一级观察是指执行最佳实践。如果流程已经制定,运营团队就会遵循该流程。 二阶观察是指质疑这些做法是否符合其潜在价值观或战略目标。它不仅问“我们这样做对吗?”,还问“我们做的事情正确吗?” 这种反馈必须从运营层流经战术层,最终返回战略层。如果战略要求“单一客户视图”,但运营实际情况证明客户数据碎片化严重,无法修复,那么战术层必须将这种矛盾反馈给战略层。战略随后必须进行调整。这种自适应学习机制可以防止组织追求无法实现的目标,并促进数据生态系统的成熟。 摩擦点 实施这种分层架构会遇到很大的阻力。这些阻力很少是技术性的,而是结构性和语义性的。 语义混淆 “数据治理”和“数据管理”这两个术语经常被混用。这并非无关紧要的语义错误,而是会导致结构错位。当治理被视为管理的子集时,它便失去了效力,沦为清单上的项目,而非决策机构。反之,当管理被视为治理的下属时,创新则会在繁琐的审批流程中停滞不前。因此,必须明确二者的职责:数据管理负责执行,数据治理负责监督。 以管道为中心的陷阱 传统的数据生命周期侧重于数据摄取、转换、存储和服务。这是一种以管道为中心的视角,将数据视为一种公用设施,需要从源头输送到消费者。这种视角的问题在于忽略了消费者。它是一种“从左到右”的数据流,消费者必须接受所有被提供的数据。 这种方法造成了脱节。数据工程团队沦为“IT后台”部门。他们构建的数据管道技术上无可挑剔,但由于缺乏上下文信息,无法创造业务价值。这种摩擦体现在:仪表盘无人问津、采用率低以及对数据缺乏信任。 产品生命周期倒置 为了解决流程中的摩擦,企业正在转向产品生命周期模型。这种模型颠倒了流程,从消费者开始,从右向左推进。 这里的摩擦源于文化差异。数据工程师必须转型为产品经理。他们必须根据用户需求而非数据源的可用性来“发现、设计、开发、部署和迭代”数据产品。这需要思维模式和技能的根本转变。它要求数据专业人员理解业务背景,而这种能力在传统的工程岗位中往往缺失。 适应性函数和自动化 随着组织规模的扩大,人工治理变得难以为继。“适应性函数”的概念引入了自动化测试,用于根据架构标准评估数据产品。其难点在于实现的复杂性。定义“可发现性”、“可信度”或“互操作性”等适应性函数需要将主观概念编码为可执行代码。这要求较高的技术成熟度和强大的元数据管理系统。 超完整执行 将这些理念转化为现实需要一个严谨的、循序渐进的执行计划。下面将详细介绍如何构建全面的数据战略以及维持该战略所需的运营架构。 第一阶段战略基础 初始阶段的重点是确定逻辑和评估现状。 1.明确愿景和目标 领导团队必须明确阐述期望的未来状态。这并非一份愿望清单,而是对数据如何支持业务目标的精确定义。 业务一致性:将数据计划直接与收入目标、成本降低目标或客户满意度指标挂钩。 目标设定:制定SMART目标(具体、可衡量、可实现、相关、有时限)。例如,“在12个月内将数据检索延迟降低40%,以支持实时欺诈检测。” 2.评估当前状态 战略的制定不能脱离实际情况。对现有环境进行全面评估是必不可少的。 SWOT 分析:开展严格的 SWOT 分析,重点关注数据资产。 优势:识别现有的高质量数据资产或成熟的数据管道。 弱点:目录孤岛、数据缺失或缺乏熟练人员。 机遇:发现人工智能或分析技术可能颠覆现有商业模式的领域。 威胁:分析监管风险(GDPR、CCPA)和竞争对手的数据能力。 数据资产清单:使用数据目录工具扫描生态系统。不要依赖文档;要扫描实际数据库。识别: 数据源(数据库、API、平面文件)。 数据存储(湖、仓库、市场)。 管道(ETL/ELT 作业)。 消费者(报告、仪表盘、机器学习模型)。 流程评估:绘制当前数据流图。识别人工干预发生的位置。找到影子IT运作的“Excel地狱”。 第二阶段团队和治理结构 人员和政策构成战术层面。 1.组建数据团队 组织结构必须与数据战略相呼应。 领导层:任命首席数据官 (CDO) 或首席数据助理官 (CDAO)。该职位必须获得高管层的支持。他们并非 IT 经理,而是负责战略资产的业务领导者。 跨职能团队:组建一个由以下人员组成的团队: 数据工程师:构建和维护数据管道。 数据科学家:构建模型。 数据管理员:管理业务领域内的数据质量和定义。 产品经理:弥合技术团队和业务消费者之间的差距。 2.选择组织模式 选择适合公司文化和规模的组织结构。 (1)集中式结构: 逻辑:所有数据功能均由一个团队处理。 优点:标准化的工具、一致的管理方式、更易于管理。 缺点:成为瓶颈;与业务领域的细微差别脱节。 (2)去中心化/网状结构: 逻辑:领域特定团队将自己的数据作为产品进行管理。 优点:高度可扩展、领域专业知识、迭代速度更快。 缺点:存在碎片化风险,需要强大的自动化(计算治理)。 (3)混合式/中心辐射式: 逻辑:中央团队管理基础设施和治理;领域团队管理分析和使用情况。 优点:兼顾控制力和灵活性。常见于中大型企业。 3.制定战略原则 治理政策定义了行动规则。 (1)数据所有权:每个数据域都必须指定一名所有者。此人对该数据的质量和安全负责。 (2)命名规则:制定严格的标准: 表名(蛇形命名法与驼峰命名法)。 列名(术语统一)。 指标定义(例如,“活跃用户的定义是什么?”)。 UTM 参数和广告系列跟踪代码。 (3)安全与隐私:定义访问控制策略。实施基于角色的访问控制(RBAC)。明确将数据分类为公共数据、内部数据、机密数据或受限数据。 第三阶段架构和技术 运营层依赖于坚实的架构基础。 1.设计数据架构 该架构必须支持“大数据架构”。 (1)参考架构:创建蓝图。它应该详细说明从源头到消费的流程。 (2)整合策略:确定整合模式。 ETL(提取、转换、加载):先转换后加载。适用于结构化数据。 ELT(提取、加载、转换):加载原始数据,按需转换。适用于数据湖。 (3)存储策略: 数据湖:存储原始数据(图像、日志、非结构化文本)。成本低。 数据仓库:存储结构化、处理后的数据。高性能。 数据集市:特定业务部门的数据子集。 2.实施管理工具 选择能够执行该策略的工具。 集成:使用 Fivetran、Airbyte 或自定义 Airflow DAG 等工具进行数据摄取。 转换:使用 dbt(数据构建工具)等工具来管理转换逻辑并进行版本控制。 目录:使用 DataHub 或 Alation 等工具来管理元数据。这对于产品生命周期的“发现”阶段至关重要。 商业智能和可视化: Tableau、Looker 或 PowerBI 等工具。 第四阶段 产品生命周期实施 将工程工作流程从以流水线为中心转变为以产品为中心。 1.从右到左的工作流程 探索:与企业客户互动。了解他们的痛点。他们需要的是仪表盘还是API? 设计:定义模式和数据模型,确保其满足用户需求。 开发:编写代码(SQL、Python)构建数据产品。应用测试(数据质量检查)。 部署:将代码部署到生产环境。通过 CI/CD 实现此过程自动化。 演进:监测使用情况,收集反馈,迭代产品。 2.适应度函数实现 实现这些产品的管理自动化。 可发现性:编写一个脚本,检查数据产品是否已在中央目录中注册。 可信度:实施数据质量测试(例如,[此处应插入测试用例名称])。如果测试失败,管道会向所有者发出警报。rowcount > 0nonullsinid_column 安全性:自动扫描器检查敏感列是否被屏蔽或加密。 第五阶段:卓越运营 这就是数据管理的日常工作。 1.数据采集和存储协议 服务器端追踪:将追踪逻辑从客户端(浏览器)移至服务器端。这可以减少广告拦截器造成的数据丢失,并提高追踪准确性。 数据层清理:确保源端发送的数据结构与消费层逻辑匹配。 身份解析:如果在多渠道环境下运行,则实现合并用户身份的逻辑。 逻辑:IF (email matches) OR (deviceid matches) THEN mergeprofiles 2.测量与分析 归因模型:定义如何将功劳分配给各个接触点。 测试文化:实施A/B测试框架。确保在宣布获胜者之前计算出统计显著性。 增量效应:设置对照组,以衡量营销活动带来的真正提升。 3.客户和第一方数据 单一客户记录:梦寐以求的理想状态。整合来自订单管理系统 (OMS)、企业资源计划 (ERP) 和网络分析的数据。 LTV 和 CAC:计算客户终身价值和客户获取成本。这些是衡量增长的关键指标。 4.商业智能和报表 优化:优化仓库查询以降低成本。 访问控制:确保业务用户能够“自助”访问受管数据集,但原始数据仍对数据工程师锁定。 第六阶段 文化与演化 1.培养数据驱动文化 技术若不被采用,就无法发挥作用。 数据素养:培训员工阅读图表和理解基本统计数据。 数据倡导者:在业务部门中确定“数据倡导者”。他们将作为中央数据团队和业务部门之间的联络人。 2.持续监测 计划-部署-监控-行动循环。 (1)关键绩效指标:跟踪数据平台的运行状况。 管道可靠性(正常运行时间)。 数据新鲜度(延迟)。 用户采纳率(活跃查询数量)。 (2)反馈循环:定期审查策略。当前数据资产清单是否支持业务目标?如果不支持,则调整路线图。 3.监管合规 隐私:实施“隐私设计”。数据最小化(仅收集必要数据)。 伦理方面:建立人工智能伦理委员会,审查算法偏见。 小结 数据战略、数据治理和数据管理在结构上的分离并非纸上谈兵,而是运营稳定的先决条件。战略指明方向,治理提供战术控制,管理提供运营能力。当这三者融合为一个凝聚的生态系统,并由自动化适应性功能和以产品为中心的生命周期提供支持时,组织便能达到数据成熟度,数据不再是负担,而是强大且可变现的资产。术语混乱和以流水线为中心的模式带来的摩擦将不复存在,取而代之的是一个稳定、自我纠正的架构,能够满足人工智能时代不断增长的需求。 转载(公众号):数据驱动智能
文 | 对外经济贸易大学法学院教授 许可 数据要素放大、叠加、倍增作用的发挥,关键在于数据流通利用。正是通过多主体、多场景的持续复用,数据才能在循环中不断精炼,突破传统资源约束下的产出边界,开拓经济增长新境域,进而以数据流通利用为枢纽,引领物质、人才、技术与资本的融通,催生新知识、新业态、新模式,为发展注入源源不绝的动力。然而,实践中,由于权属、利益和责任边界的分歧与模糊,数据往往被固化在特定主体内部,成为无法与外界连接的“数据孤岛”。 为破除这一痼疾,需要从多方面统筹设计。首先,在典型场景中明晰数据产权,应降低数据交易流通中各方调查权利边界的核实成本和就权利内容讨价还价的磋商成本、人们约束自身行为和防范侵权的合规成本,以及数据产权人向第三方主张权利的行权成本。其次,应强化党政机关、企事业单位切实履行有序开发利用公共数据资源的责任,鼓励行业龙头企业、平台企业按照安全、公平、合理、无歧视原则对外提供数据服务,形成数据供给的激励。最后,应研究数据的“合理使用”,在维护相关各方合法权利的前提下,保障社会公众和其他市场主体使用数据的需求。 一、从著作权的“合理使用”到数据的“合理使用” “合理使用”源自我国的著作权法。《中华人民共和国著作权法》第24条规定,出于学习、科研、新闻报道等非营利性目的,在不影响作品正常使用、未不合理地损害著作权人合法权益的情况下,可以不经著作权人许可且不向其支付报酬,而使用作品。著作权“合理使用”旨在平衡著作权人与社会公众之间的利益,避免权利人不加限制地行使其权利,不当妨碍作品中信息的传播与分享。 数据“合理使用”与之异曲同工。在数据处理者享有数据持有权、使用权、经营权等广泛权利的基础上,以社会公共利益为基点,对数据处理者的数据产权加以适当限制,允许他人在特定情形中,无需经过数据权利人同意而使用其数据,从而防范数据处理者恶意闭锁数据,加剧“数据孤岛”。数据三权分置和数据“合理使用”相辅相成,均以实现数据复用和高效利用为宗旨。 二、数据“合理使用”的特定情形 数据“合理使用”主要用于科学研究、教育教学等公益事业以及突发事件应对等公共治理领域。根据《中华人民共和国公益事业捐赠法》第三条,所谓“公益事业”,是指非营利的下列事项:(一)救助灾害、救济贫困、扶助残疾人等困难的社会群体和个人的活动;(二)教育、科学、文化、卫生、体育事业;(三)环境保护、社会公共设施建设;(四)促进社会发展和进步的其他社会公共和福利事业。当前,数据已成为科学研究的支撑和重要的战略性资源,科研也步入了以数据驱动为主导、以算力探索为工具的第四范式时代。面向未来创新的科学研究和教育教学,亟需数据的开放和共享,成为数据“合理使用”的关键场景。 公共治理是我国国家治理的重要方面。在国家治理能力现代化的背景下,公共治理系统化、科学化、数字化、智能化的需求日益迫切。2015年,《国务院关于印发促进大数据发展行动纲要的通知》提出建立“用数据说话、用数据决策、用数据管理、用数据创新”的管理机制,实现基于数据的科学决策,推动政府管理理念和社会治理模式的进步。随着我国数字化转型的深入推进,利用数据改进公共政策、公共服务、公共治理,构建数字政府,已成为改革愿景。在各种公共治理中,攸关平安中国的突发事件治理尤其重要。根据《中华人民共和国突发事件应对法》第二条,所谓“突发事件”,是指突然发生,造成或者可能造成严重社会危害,需要采取应急处置措施予以应对的自然灾害、事故灾难、公共卫生事件和社会安全事件。例如,利用铁塔遭受水浸、停电、离线的数据,可以高效进行灾害分析,提供灾害早期识别、灾情高效研判、精准锁定“三断”地区以及应急处置辅助决策等服务,有效提升灾害监测、分析与预警等应急管理水平,降低各类自然灾害带来的经济损失。当然,公共治理中的数据“合理使用”仅仅是对数据处理者权利的限制,对于承载个人信息、商业秘密的数据,仍应尊重个人的人格权利和企业的经营权利。 三、数据“合理使用”是开放的清单 数据“合理使用”并不是封闭的,而是具有弹性和开放性的制度。科学研究、教育教学、突发事件应对只是部分场景。这是因为,随着技术进步、商业迭代和社会发展,作为数字经济关键生产要素的数据,其使用场景无穷无尽,因此,如果对数据“合理使用”的情形作过于严格的解释,将违背《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》中“促进数据使用价值复用与充分利用”,以及“个人、企业、公共数据分享价值收益”的政策方向。因此,在未来的立法和司法中,可以从公益事业和公共治理的目的出发,综合考量数据的性质、被使用数据的质量数量、数据使用的目的与性质、使用行为对数据潜在市场或价值的影响等多方面因素,判断是否构成“合理使用”。放眼未来,数据“合理使用”将是数据产权制度的重要内容,服务于打破数据孤岛、促进数据流通和创造数据价值的目标。 来源(网站):国家数据局
在过往对AI本质、碳基与硅基生命边界的深度探讨中,我们主要在理念层面求索。理念指导实践,回归实践层面,一张清晰、完整、可落地的“AI+”架构全景图,才是串联所有要素的关键纽带。 为此,我从四个维度系统性解构人工智能+架构:第一个是系统结构维度——“理念、方法、工具”,它指导我们如何去解构AI+;第二个是时间过程维度——“意图、智算、执行”,将AI系统解构为彼此依赖、相互协同的三层;第三个是空间部署维度——从中心-边缘-终端的视角,描绘出AI+在云、边、端的分层部署;第四个是组织实施维度——从“战略、业务、平台”的角度,强调AI+敏捷的动态性变革。 一、系统结构维度:理念层、方法层、工具层 理念层:明晰边界,坚守人本 AI时代的核心命题,是认清人与机器的能力边界,守住人类不可替代的价值高地。随着技术手段的不断创新,在强逻辑、高重复、高精度的智能任务方面,机器终将超越人类;而感性认知、信仰构建、价值度量、道德自律与审美创造,则是人类独有的精神内核。 道德律是内在的信仰自律,法律是外在的契约他律,自律与他律共同指向相对自由,最终滋养审美与善意。技术可以无限迭代,但人类追求的终极理想,永远是情感与精神的丰盈。因此,无论AI如何进化,以人为本、向善而行,始终是技术发展的底层逻辑。 方法层:范式革新,架构赋能 在上述理念指导下,我们的方法论势必发生变革。工业文明以体力劳动为核心,数字文明则是智力与体力的双重协同。AI方法论的本质,是把治理能力下沉到业务场景,以平台化的方式持续迭代、沉淀长期价值。 方法不对,努力白费;架构先行,事半功倍。我们需要构建“32N(三网关+两中心+N场景)”核心架构,打通“感知/控制数据、模型/算力、战略意图/编排调度”三大通路,通过语义治理和安全治理,让AI能力精准赋能场景创新。 工具层:数据通联,安全护航 工具层的核心使命,是破解异构数据的互联互通难题,实现“感知数据、控制数据、语义数据”这三大数据“书同文、车同轨”。 同时,碳基人类与硅基数字人混合协作的新时代,催生出全新的安全挑战,必须构建出一套覆盖全链路、全场景的安全体系,为AI发展筑牢底线。 二、时间过程维度:意图层、智算层、执行层 AI不只是思维框架,更是可落地的平台实体,我们将其纵向拆解为意图、智算、执行三层协同体系,层层递进、闭环运转。 意图层:从数据到智慧,从理解到战略 意图层实现的是数据→信息→知识→智慧的高阶跃迁,也是成本最高、价值最大的核心环节。 传统的数据治理解决“可信”,当下的语义治理解决“可理解”。实现语义层的互通,必须在知识层面建立动态本体模型,并基于此实现人机互通,但这并不等同于自主意图。真正的意图,最终指向战略决策。意图层是AI的“大脑中枢”,也是未来攻坚的核心制高点。 智算层:算力底座,模型引擎 智算层是AI的动力心脏,集成计算、网络、存储三大核心资源,承载算力调度与模型运行,为上层意图、下层执行提供坚实支撑,是智能运转的基础保障。 执行层:感知闭环,全域落地 执行层负责从感知付诸行动,完成感知—控制—反馈—优化的全流程闭环。执行的主体涵盖“碳基人类、硅基数字人、软件、硬件”四类资源,是AI从技术走向实用的“最后一公里”,让智能真正转化为行动与价值。 三、空间部署维度:云智能、边智能、端智能 与传统IT架构相比,AI+部署呈现高度分层压缩、分布式部署的特征,智能不再集中于中心节点,即便最小终端也具备计算能力,形成云、边、端三级协同的智能分布。 云智能:全局中枢,重载计算 云智能是全局大脑,承担中心化重载计算、智能网关、语义治理、动态本体模型、安全治理等全局能力,以全局视角统筹全域智能,保障体系的一致性。 边智能:场景先锋,即时响应 边智能是场景创新的灵活触角。对于多模态数据处理,云端处理通常为秒级响应,边缘侧则可实现毫秒甚至微秒级低时延。边缘智能的本质,是以具体场景为中心的轻量化模型计算,是大模型在边缘侧的轻量化部署。 端智能:终端触点,精准对齐 端智能是AI和现实世界真正接触的最后一环,其核心是完成语义对齐与安全对齐:边缘语义在云端汇聚对齐,让本体模型持续迭代优化;安全规则上下贯通,保障终端可信执行。 上述三者关系清晰:云为纲、边为目、端为行。边与云是上下级协同:“云不约束、边即自由”“云若约束、边即遵从”;端严格北向遵从标准,确保数据上传可信,指令下达可落地。 四、组织实施维度:动态战略、动态业务、动态平台 AI带来的不是局部优化,而是全链路、全周期的动态性变革,在此背景下,传统一体化数据平台将迎来彻底的继承性与演进性跃迁。 动态战略:数据驱动,科学决策 AI+让战略制定从经验驱动走向“数据驱动+智能辅助”,实现战略工程级科学动态调整。决策权始终归于人类,但硅基智能为战略研判、动态调整提供强大支撑,让战略更精准、更敏捷。 动态业务:流程重塑,自动优化 在战略的指引下,AI将深度参与组织、制度、流程、标准设计,实现业务流程动态生成、自主优化,打破传统固化模式,让业务适配变化、快速迭代。 动态平台:智能自治,降本增效 传统平台依赖人工开发与反复对齐。未来,平台将走向智能自生成、自治理、自运营,成为一个能不断集成新AI能力、新工具的“活”的平台。数据与技术治理将变得更敏捷、更安全,硅基智能在平台全生命周期中占比也将持续提升。 结语 综上所述,四大维度一维带三维,三维可将“AI+”在宏观整体架构拆解为27个关键模块,按照总分总的V字模型深化下去,可以形成完整的顶层设计蓝图。 “AI+”顶层架构初期不宜过细,也不可缺失;在粗粒度顶层指引下,聚焦重点场景突破,提炼共性需求反哺顶层设计,让顶层规划与基层创新双向奔赴、循环演进,才是AI架构持续进化的正确路径。 技术有边界,智能无终点;架构明方向,落地见真章。 作者:王巍 数字浙江技术运营有限公司总经理 来源(公众号):数字浙江
《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》提出,要建立数据产权结构性分置制度,成为各方关注的重点。具体来说,数据产权应如何分置? 数据具有多方共生的特点,同一数据往往涉及多个主体。比如,消费者在电商平台上的交易数据,涉及消费者、商户、物流公司、支付公司、电商平台等多方主体。因此,推动数据产权结构性分置,重点是顺应数据特点,明确“谁对什么数据有什么权利”。 01 什么是数据的持有权、使用权、经营权? 持有权就是自行持有或委托他人代为持有合法获取的数据的权利,其他人不得窃取、篡改、泄露或者破坏权利人合法持有的数据。比如,大型集团企业往往安排旗下数科公司汇聚、存储、维护集团所有数据,统一提供数据服务,并相应地将数据持有权配置给这家数科公司。 使用权就是对数据进行加工、聚合、分析等的权利,可以将数据用于优化生产经营,也可以形成衍生数据等。比如,医院可以在保护个人信息前提下,建设数据资源池,允许药物研发企业在资源池内对数据进行加工使用,研发新产品,并相应地将数据使用权授予药企,但不授予持有权、经营权,这就在保障了数据安全的同时,让更多主体参与释放数据要素价值。 经营权就是以转让、许可、出资或者设立担保等有偿或无偿的方式对外提供数据的权利。比如,一些企业希望由数据中介机构代为销售数据,但又担心数据不受控制,所以仅授予数据中介机构数据经营权。该情况下,数据中介机构不持有数据、也不使用数据,但是取得了代表企业对外提供数据的权利,这保障了其对外供数服务的稳定性。数据中介机构达成交易意向后,数据供给方可以先复核数据需求方可信,再提供数据。 02 如何理解数据持有权、使用权、经营权的关系? 一方面,持有权、使用权、经营权互相独立,同一权利人可同时享有全部权利,也可享有其中一项或多项权利。比如,在数据融合利用的情形中,某汽车数据空间运营企业联合车企、相关供应商等共同开发数据,各方可以约定各自享有融合后数据的持有权和使用权,并由其中某一方享有数据经营权;也可以约定均享有持有权、使用权、经营权。 另一方面,对于同一数据的同一权利,不同权利人可同时享有且互不排斥。比如,某经营主体合法合规获取一份数据,享有持有权、使用权、经营权,该主体把这份数据复制一份提供给其他人并进行相应授权,则双方对相同的数据同时享有持有权、使用权、经营权,互不排斥。再如,该主体通过建设可信数据空间等数据基础设施,授权多个主体在空间内使用数据,则多方同时对这份数据享有使用权。 03 这样设置的好处是什么? 一是有利于适应数据特征,清晰界定数据权利内容。通过持有权、使用权、经营权分置,清晰界定不同主体的权利内容,有利于定分止争,符合数据多方共创的特性,将各方关注点从争论“数据是谁的”,转移到“数据怎么用”上来,更好推动数据开发利用,释放数据价值。 二是有利于满足实践需要,释放数据要素乘数效应。数据具有低成本复制的特点,一份数据可以极低的成本,被多个主体重复使用,创造多样化的价值增量,这是数据要素乘数效应的重要来源。因此,明确不同主体可以对同一数据享有同样的数据产权,符合多主体并行使用数据的客观实践,有利于推动数据复用增效。 三是有利于留足发展空间,支持数据领域创新创造。数据作为新兴领域,技术、产业、市场等都在快速发展,未来还将涌现很多新模式、新业态。持有权、使用权、经营权互相独立,有利于市场经营主体描述自身权利内容,让数据产权制度更好满足丰富多样的实践需要,为数据领域创新创造留足发展空间。 来源:国家数据局
中共广东省委办公厅 广东省人民政府办公厅 关于加快公共数据资源开发利用的实施意见 为贯彻落实《中共中央办公厅、国务院办公厅关于加快公共数据资源开发利用的意见》部署要求,加快我省各级党政机关、企事业单位在依法履职或提供公共服务过程中产生的公共数据资源的开发利用,充分释放公共数据要素潜能,促进数据要素市场高质量发展,助推数字广东建设上新水平,经省委、省政府同意,现结合实际提出如下实施意见。 提升公共数据资源供给规模和质量 (一)推动公共数据资源高质量供给。建立数据资源调查制度,摸清数据资源底数。强化统筹协调,落实首席数据官制度。完善公共数据资源目录,明确数据责任部门、数据来源、更新机制、质量标准、使用方法等属性,推动实现“一数一源”。推进政府核心业务数据化。编制完善政务数据共享、开放责任清单,明确数据采集、治理责任。 (二)健全公共数据资源管理标准规范。按照国家数据分类分级保护制度要求,对公共数据实施分类分级管理。围绕数据流通利用基础设施、公共数据资源授权运营、数据安全管理等方面,构建全省统一的公共数据领域标准规范体系。推动行业主管部门、行业协会、龙头企业等共同参与公共数据标准规范制定和推广应用。 (三)提高公共数据质量。建立公共数据质量监测和评价、问题数据纠错、异议核实与处理机制,综合运用多元比对、关联分析等技术手段,对公共数据进行核对、确认,提升数据精准度。按照“谁管理谁负责、谁使用谁负责”的原则,明确公共数据资源开发利用各环节责任主体,推动公共数据源头治理、系统治理。组织开展公共数据质量检查。 (四)促进公共数据资源融合应用创新。强化省数据资源“一网共享”平台技术支撑,围绕“高效办成一件事”,组织数据供需双方开展面向场景应用的数据共享。推动全省供水、供电、供气、公共交通以及城市基础设施等公共服务行业数据资源全面接入省数据资源“一网共享”平台。鼓励医疗、教育、金融、交通、能源、工业、电信等行业和领域融合应用公共数据和社会数据资源,开发产品、提供服务。鼓励行业龙头企业、互联网平台企业开放数据,推动跨行业跨领域数据互通共享。 规范公共数据授权运营 (五)系统推进授权运营。落实数据产权结构性分置制度要求,探索建立公共数据分类分级授权机制。以数字政府一体化为支撑,集约建设公共数据授权运营平台。省级数据主管部门统筹管理全省公共数据授权运营,指导监督省级运营机构依法依规经营。探索将授权运营纳入“三重一大”决策范围,明确授权条件、运营模式、运营期限、退出机制和安全管理责任,鼓励结合实际采用整体授权、分领域授权、依场景授权等模式,授权符合条件的运营机构依托公共数据授权运营平台开展公共数据资源开发、产品经营和技术服务。运营机构要落实授权要求,规范运营行为,面向市场公平提供服务,严禁未经授权超范围使用数据。 (六)落实资源登记管理制度。建立全省统一的公共数据资源登记制度和标准。对纳入授权运营范围的公共数据资源、授权运营形成的公共数据产品和服务实行登记管理。鼓励对持有但未纳入授权运营范围的公共数据资源进行登记,形成公共数据资源底账。依托省数据资源“一网共享”平台,基于公共数据资源目录,开展全程电子化公共数据资源登记。 (七)建立运营监督机制。通过公共数据授权运营平台,按规定向社会发布运营机构遴选公告、公开授权运营情况等。运营机构应公开公共数据产品和服务能力清单等,接受社会监督。数据主管部门要履行行业监管职责,指导监督运营机构依法依规经营。 (八)建立价格形成机制。全面落实公共数据资源授权运营价格形成机制,充分发挥价格政策的杠杆调节作用。指导运营机构建立各类应用场景下可提供的数据产品和服务项目价格清单,对用于公共治理、公益事业的,可以有条件无偿使用;对用于产业发展、行业发展,确需收费的,实行政府指导定价管理。 促进数据开放和流通交易 (九)有序推动公共数据开放。健全公共数据开放管理制度,在维护国家数据安全、保护个人信息和商业秘密前提下,依法依规有序开放公共数据。完善“开放广东”平台,提升公共数据开放服务水平。制定公共数据开放年度计划,明确重点任务。丰富并动态更新公共数据开放目录,优先开放气象、科研、交通等社会公众关注度高的公共数据。开展公共数据开放需求征集活动。 (十)开展数据产品和服务流通交易。鼓励通过依法设立的数据交易场所交易公共数据产品和服务。加强公共数据流通交易监管,优化数据交易场所配套服务机构布局,为公共数据产品和服务流通交易提供公平有序的市场环境。 推动数据产业健康发展 (十一)加强重点领域数据开发利用。开展公共数据需求调研,精准把握企事业单位、社会组织的数据需求,推动公共数据资源有效配置。围绕普惠金融、信用服务、消防安全、气象服务等重点领域,推动龙头企业发挥带动作用,协同上下游共建开发利用场景。支持企业利用开放数据建设开放创新平台、开源社区、评测适配中心、创新中心等技术服务平台。鼓励社会各界广泛利用开放数据支撑科技研究、咨询服务、产品开发、数据加工等活动。开展公共数据“跑起来”示范场景建设。 (十二)促进人工智能产业创新发展。鼓励各行业建设高质量数据集,加大高质量行业级数据集供给,推动典型行业数据汇集、共享和使用。探索利用政务大模型智能化升级改造政务信息系统,提供人工智能服务。常态化发布人工智能场景清单。支持有条件的地区和部门与科研机构、大模型企业合作,围绕医疗健康、公共管理、智慧城市等领域,融合利用公共数据资源开发行业特色大模型。 (十三)促进湾区数据流通便利化。以商事登记、健康医疗、社会保障等场景为试点,在粤港澳大湾区探索公共数据跨境流动。发挥横琴、前海、南沙、河套等重大合作平台优势,探索建设跨境可信数据空间,着力打通业务链条、数据共享、数据流通堵点。强化粤港澳大湾区智慧城市建设合作和平台联通,加强地理空间、交通信息、经济数据等智慧城市数据要素共享利用。 (十四)促进数据产业集聚发展。加快建设协同互补、特色发展、具有国际竞争力的数据要素集聚发展区,促进数据全产业链协同发展。围绕数据资源、数据技术、数据服务、数据应用、数据安全、数据基础设施等领域,引进和培育一批数据企业,构建大中小企业融通发展生态。推动城市全域数字化转型,促进数据相关产业在城市集聚。 (十五)繁荣数据产业发展生态。鼓励开发数据模型、数据核验、评价指数等多种形式数据产品。培育高水平数据应用企业,支持公共数据采集标注、分析挖掘、流通使用、数据安全等技术创新应用。支持数据行业协会、学会等社会团体制定行业数据合规指南,加强数据合规服务的标准化和规范化建设。鼓励高等学校和科研机构基于公共数据资源开发创新应用。支持开发具有社会潜力和社会效益的公益产品和数据应用项目。 增强数据领域支撑保障能力 (十六)加大创新激励力度。按照管运适度分离的原则,在保障政务应用和公共服务的前提下,承担数据运营职责的事业单位可按照有关规定转企改制,试点成立行业性、区域性运营机构,并按照国有资产有关法律法规进行管理,符合要求的纳入经营性国有资产集中统一监管。研究制定支持运营机构发展的激励政策。 (十七)加强数据基础设施建设。推进全国一体化算力网络粤港澳大湾区国家枢纽节点建设,推动行业数据中心集约化、智能化、绿色化发展。支持广州、深圳等市开展数据流通基础设施建设试点。聚焦算力网络和可信流通,支持数据基础设施企业发展。加强计算、网络、存储、应用协同创新,鼓励先进存储技术部署应用。探索政务信息系统社会化建设。有序推进企业、行业、城市、个人、跨境可信数据空间建设和应用。 (十八)加强数据安全管理。健全公共数据安全管理体系,强化数据安全和个人信息保护,完善数据安全监测预警和应急处置机制。加强对数据资源生产、加工使用、产品经营等开发利用全过程的监督和管理。运营机构要依据有关法律法规和政策要求,履行数据安全主体责任,建立健全数据安全管理制度,组织开展数据安全教育培训,采取技术措施加强动态监控、主动防御,形成数据安全规范管理闭环,提升安全防护水平。公共数据提供单位要严格落实信息公开保密审查主体责任,依法依规予以保密的公共数据不予开放,严格管控未依法依规公开的原始公共数据直接进入市场。 (十九)鼓励先行先试。建立健全容错机制,鼓励和保护干部担当作为,营造鼓励创新、包容创新的干事创业氛围,在公共数据资源开发利用的制度机制、依规授权、价格形成、收益分配等方面开展先行先试。充分认识数据规模利用的潜在风险,坚决防止以数谋私等“数据上的腐败”,坚持有错必纠、有过必改,对苗头性、倾向性问题早发现早纠正,对失误错误及时采取补救措施,维护公共数据安全。支持广州、深圳等市结合区域特色开展公共数据资源开发利用试点。 强化组织实施 坚持和加强党的全面领导,把党的领导贯彻到数据工作全过程各方面。各地区各部门要强化组织实施,结合实际抓好贯彻落实。省政府办公厅强化工作协调,加大跨地区跨部门跨层级协同联动和重大事项统筹协调力度。省政务和数据局加强工作统筹,加快推进公共数据共享开放和授权运营工作。研究制定广东省数据条例,强化公共数据资源开发利用制度保障。依托省级重点研发计划、科技重大专项等,开展数据加密、可信流通、安全治理等关键技术研究和攻关。加强数据领域人才队伍建设和国际交流合作。建立健全公共数据资源开发利用成效评价、第三方评估和监督检查工作机制。鼓励各地开展公共数据资源开发利用创新实践,加强典型案例推广,营造良好氛围。 来源 : 南方日报网络版