能量守恒与价值交换,是世界运行的不变基石,也是商业活动的本质内核,任何“所得”都必须支付等价的“代价”。然而,在数字化浪潮的巅峰,数据正以前所未有的力量,重构这一底层逻辑的实现方式——从模糊走向精准,从孤立走向协同。 一、价值交换:人类社会的底层运行逻辑 要理解“商业的本质是价值在交换这一动态过程中被创造与实现”,可借助“天、地、人”三才共生的宏观视角。人类一切商业与社会活动,并非孤立存在,而是深深根植于这一宏大的系统互动之中。 农业文明是这一原理最本真的体现。在此模式下,劳动者(人)通过观察天时、勘测地利,将自身的体能与智慧(劳动)注入土地,最终将自然之力与人类劳作共同转化为农作物。这是一个经典的价值交换过程:人付出能量,从自然系统中获取回报。 步入工业时代,这一价值交换的范式并未改变,但其实现的复杂性与协作的规模发生了质的飞跃。企业通过向上游采购原材料与半成品,完成了与供应链的价值交换;在内部,通过人机协同作业,将原料转化为更高价值的产品,再经由销售进入下游,开启新一轮价值循环。在每一个环节,价值都通过交换实现流转与增值。 数据被确立为第五大生产要素,这标志着价值创造、衡量和分配的规则正被系统性重构,其本质,是以数据为核心,重塑企业在产业链中的价值地位。 二、重构认知:从“盲人摸象”到“上帝视角” 纵观农业时代至工业时代,一切价值创造与交换皆以人的知识、技能与经验为载体,并外化为工具与生产资料。 然而,这些经验与智慧往往分散于个体或小范围群体中,呈现碎片化状态。尽管部分知识物化于复杂产品或系统中,但整体仍受限于组织、时空与认知的边界——产业壁垒、企业壁垒、个体局限与地域差异,均构成天然约束。 因此,传统商业活动高度依赖特定组织与个人的能力。这种“经验驱动”模式虽能实现深度专业化,却因其孤岛式、高成本、慢迭代的特性,严重制约了价值创造的效率与规模。 市场调研:样本小、周期长、成本高,洞察滞后且易带偏见。 产品研发:脱离真实需求,试错成本高昂,创新保守且迭代缓慢。 供应链与生产:基于历史预测,导致库存积压与缺货并存,柔性差、响应慢。 营销销售:目标模糊、效果难量化,严重依赖渠道与个人能力。 用户服务:被动响应、体验割裂,难以沉淀忠诚度与增值价值。 数据驱动则从根本上改变了这一范式。它将分散的个人经验与组织智慧,沉淀为可聚合、可流通、可演化的数字资产,最终形成一个持续自我优化的“智慧中枢”。这意味着认知模式从“盲人摸象”的局部感知,升维为“上帝视角”的全局洞察——它既是凝聚群体智能的载体,也是驱动商业共识的新引擎。 三、重构模式:从“模糊博弈”到“精准共生” 价值交换是人类社会的底层运行逻辑”是为大道,揭示了世界运行中不变的基石;而“所有的生意都值得用数据重构一遍”则是术用,指明了数字化浪潮滚滚向前中,践行此道的必然选择。 1. 精准交换:从“盲目猜测”到“精准洞察” 传统模式:信息不透明导致价值交换充满不确定性。企业难以精准定位用户需求,用户也难以找到完全匹配的产品,造成巨大的资源浪费与机会错失。 数据重构后:数据消除了市场迷雾。企业能通过用户行为分析,精准洞察个体乃至群体的潜在需求,实现“按需定制”的精准价值创造,极大提升了交换的成功率与效率。 2. 无限交换:从“物理局限”到“生态协同” 传统模式:价值交换的规模与半径受制于物理位置、渠道覆盖和人力成本,其增长存在明显天花板。 数据重构后:数据流与互联网打破了时空边界。企业可通过数字平台,近乎零成本地将产品与服务瞬间触达全球市场的潜在用户,价值交换的生态效应被无限放大,催生过去无法想象的商业模式与市场容量。 3. 共生交换:从“零和博弈”到“利益共同体” 传统模式:一次性的交易往往是合作的终点。各方利益难以协同,常陷入短期博弈,无法激励长期的价值共创。 数据重构后:数据构建了可量化、可审计的价值协作系统。基于“效果分润”等机制,生态各方结为利益共享、风险共担的命运共同体,形成了“价值共创→效果追踪→按效分配→持续优化”的增长飞轮,驱动整个生态持续繁荣。 四、 重构路径:从“以产定销”到“数据驱动” 一切商业活动始终围绕人的需求展开。传统“以产定销”模式依赖经验预测,经多层分销触达用户,导致链条冗长、响应迟钝且与市场脱节。 进入数字化下半场,企业竞争正从内部资源的比拼,升维为全域生态的协同。未来的核心竞争力,在于拥有连接与赋能生态的数字能力资产。 而今,数据正在重构这一流程。D2M(Data-driven to Manufacturer,数据驱动制造)模式应运而生。 D2M是一种以数据贯穿全价值链的协同范式。它通过实时洞察需求,逆向驱动研发、生产与供应链,实现从“预测式生产”到 “需求驱动式创造” 的根本转变。在此模式下,数据作为核心枢纽,重新配置业务流与决策流,形成“需求-研发-交付-反馈”的闭环。 更重要的是,D2M远不止于生产环节的升级,也不只是对面向用户的终端消费环节的重构,而是对产业纵横价值链的系统性重构,使企业竞争从内部资源比拼,升维为连接与赋能生态的数字能力。 从演进路径看,C2M还只是起点,D2M是目标,而未来很长一段时间的常态将是D2C2M——从数据预测到研发、生产、营销、服务,再到完善消费者全域画像,形成一个无始无终、无先无后的生态闭环。 五、结语:迈向数据驱动的新商业生态 数字化浪潮中,商业的本质正回归价值交换,并被数据重新赋能。这不仅是技术升级,更是认知、模式与生态的系统重构。 从农业时代的“天人协作”到工业时代的“规模效率”,商业始终遵循价值交换的法则,却也长期受困于经验的局限、链条的冗长与协同的壁垒。如今,数据正在打破这些束缚:推动价值交换从模糊走向精准,从有限走向无限,从零和竞争走向生态共赢。 因此,“所有生意都值得用数据重构一遍”不是一句口号,而是必然的进化方向——以数据贯通全链路,构建一个更高效、透明、共生的新商业生态。 来源(公众号):三界逆熵实验室
2025-12-25 17:44 256
来源(公众号):大数据 AI 智能圈 在人工智能飞速发展的今天,我们正在亲历一场从对话机器人向智能实体跨越的深刻变革。 很多人对 AI 的印象还停留在你问我答的聊天框阶段,但真正的 AI Agent(智能体)早已突破了单纯的对话功能,演变为能够感知环境、自主决策、执行任务并持续进化的复杂系统... 如果说大模型是具备高智商的大脑,那么 AI Agent 就是一个装备齐全的特种兵。 从工程实现的视角来看,一个成熟的 AI Agent 绝非简单的 Demo 玩具,而是一套精密的系统工程,它由六大核心模块协同运作,共同构建了一个完整的智能闭环。 我们需要理解的第一个核心能力是感知。 对于智能体而言,感知模块就是它的五官,负责与纷繁复杂的外部世界进行交互。 这就好比人类通过视觉、听觉和触觉来认识世界一样,AI Agent 的感知系统需要处理多模态的信息。无论是对话框里的文字、API 接口传回的数据,还是通过自动语音识别(ASR)转写的语音,甚至是需要光学字符识别(OCR)解析的图像,这一切信息都需要被感知模块精准捕捉。 但这不仅仅是接收信息那么简单。 感知模块最关键的作用在于翻译和标准化。 现实世界的信息是杂乱无章的,感知模块必须将这些非结构化的文本、图像以及实时监控到的业务事件(如订单异常、流量暴涨),转化为系统可理解的标准化观测数据。 只有经过这样高质量的预处理,后续的大脑才能做出准确的判断。它就像是一个极其高效的情报官,在信息进入指挥中心之前,已经完成了去噪和整理。 当情报就位,就轮到决策引擎这个大脑登场了。 这是 AI Agent 架构中最具魅力的部分,通常由大型语言模型(LLM)驱动。 与普通聊天不同,决策引擎引入了思维链(Chain-of-Thought)推理机制。 它不会草率地直接抛出答案,而是像人类专家一样显式地进行逻辑推演。面对一个复杂目标,它会首先进行拆解,列出多种可能的解决方案,并在内心评估每种方案的优劣,最后才决定下一步是该调用工具、查询数据库,还是继续深思熟虑。 这种规划能力在处理长链路任务时尤为重要。 试想一个数据分析任务,决策引擎会将其规划为获取数据、清洗数据、聚合指标、生成图表等多个步骤。更厉害的是,这种规划是动态的。 如果在执行过程中遇到了意料之外的情况,比如数据缺失或接口报错,决策引擎会实时感知并调整计划,重新规划路径。这种具备动态调整能力的决策机制,才是智能体区别于传统自动化脚本的本质特征。 拥有了大脑和五官,智能体还需要手脚来改变世界,这就是执行系统的职责。 在 AI Agent 的架构中,执行不仅仅是简单的动作,而是将自然语言的决策转化为精准的计算机指令。 它通过预定义的 工具模式(Tool Schema) 构建参数,去调用外部的 API、运行脚本或操作插件。一个优秀的执行系统必须具备极高的鲁棒性,因为它直接面对现实世界的各种不确定性。 为了确保执行的可靠性,工程设计上通常会采用幂等设计和退避重试策略。这意味着即使网络波动导致请求重复,系统也能保证结果的一致性;遇到超时也会智能地等待重试。 对于那些高风险的操作,执行系统甚至会引入快照和回滚机制,或者在关键时刻请求人工确认。 这种严谨的执行逻辑,确保了 AI Agent 在处理金融交易或系统运维等敏感任务时,既能高效行动,又能守住安全的底线。 除了感知、决策和执行,记忆管理是区分临时工与资深专家的分水岭。 没有记忆的 Agent 只能在当前的对话窗口里打转,而成熟的 AI Agent 拥有完善的分层记忆体系。这包括处理当前上下文的工作记忆、保存近期交互记录的短期记忆,以及存储行业知识、用户偏好和业务事实的长期记忆。 这种分层设计,让智能体在处理任务时显得游刃有余。 在技术底层,这通常通过向量数据库和知识图谱的结合来实现。 向量数据库擅长模糊检索,能从海量的非结构化文档或对话历史中找到相似的片段;而知识图谱则像一张严谨的关系网,管理着实体与属性之间的结构化关联。 这种记忆系统实现了检索增强生成(RAG)模式,让智能体在做决策前能先查阅大脑中的知识库,从而给出更加精准且符合背景的回答,避免了模型由幻觉导致的胡言乱语。 然而,一个系统如果只能机械地执行既定程序,它永远无法被称为真正的智能。 反馈优化模块就是 AI Agent 实现自我进化的关键一环。 这一模块赋予了智能体反思的能力。在每次任务结束后,它不会立刻停机,而是会启动自我评估机制:结果是否达成了目标?过程中是否有冗余的步骤?哪些环节容易出错?这种机制往往通过一个专门的反思 Agent来实现,它像一位严格的导师,复盘每一次行动。 更高阶的进化则依赖于强化学习。 系统会为各类任务设定 KPI 指标,比如成功率、耗时或用户满意度。通过不断收集执行数据,智能体能够自主调整决策策略。 这种基于数据的持续优化闭环,使得 AI Agent 具备了越用越聪明的特质。它不再是一个静态的软件,而是一个能够随着使用时间和数据积累而不断成长的数字生命体。 为了更直观地理解这六大模块是如何像齿轮一样咬合的,我们可以看一个金融数据分析智能体的真实工作流: 当接收到分析某板块股票表现的任务时,感知模块首先启动,从 API、数据库甚至新闻流中收集海量的交易数据和舆情信息,并实时监测其中的异常波动。 此时,作为大脑的决策引擎开始运作,它将宏大的任务分解为基本面分析、技术面分析和风险评估等子任务,并决定采用 PE 比率和动量指标作为分析工具。 紧接着,执行系统接管任务,调用数据 API 获取原始数据,并运行清洗脚本处理其中的缺失值。 在这一过程中,如果发现数据清洗步骤耗时过长,反馈优化模块会记录下这个瓶颈,并在下一次任务中建议预缓存清洗逻辑,从而提升效率。最后,记忆模块会将本次分析的关键发现存入知识库,并根据用户的反馈更新对报告格式的偏好。 这就是一个从感知到执行,再到记忆和优化的完整闭环。 这种架构的演进展示了 AI 技术从单点突破向系统化融合的趋势。 未来的 AI Agent 将更加注重模块化与标准化,这意味着各个模块可以像乐高积木一样灵活替换和升级。 同时,随着边缘智能的融合,部分感知和决策能力将下沉到端侧设备,实现更快的响应。而多 Agent 协作模式的出现,将让不同专业的智能体能够联手解决更加复杂的问题,就像组建一支全能的专家团队。 综上所述,AI Agent 的强大并非来自某单一模型的参数规模,而是源于感知、决策、执行、记忆、反馈以及基础大模型这六大模块的有机结合。它们共同构成了一个具备自主性、适应性和成长性的智能系统。 在这个系统中,感知的全面性、决策的准确性、执行的可靠性、记忆的有效性和优化的持续性缺一不可。正是这种系统工程化的力量,正在推动 AI 从实验室的算法模型,真正走进各行各业的复杂现实场景,创造出实实在在的价值。
2025-12-19 17:48 548
2025年“数据要素×”大赛全国总决赛近日落下帷幕,住建行业的11支数智住建项目代表队在城市治理赛道进入决赛并获奖,展示了数智住建工作的阶段性成效。“数据要素×城市治理”重点在于通过对城市运行各类数据的深度挖掘和治理应用,以共建共治共享激发数据要素的乘数效应,推动超大城市治理从“经验驱动”向“数据驱动”、从“条块分割”向“协同共治”、从“被动响应”向“主动预见”转型。 以数据归集的“全域穿透”,构建城市治理的“全景图谱”。数据要素是推动城市治理现代化的新型治理要素,超大城市治理的首要挑战在于数据碎片化、孤岛化。通过“物理归集+逻辑归集”双轨并进,打破部门、层级与领域的数据壁垒,搭建统一的数据资源管理平台,以“全域穿透”的归集模式将分散在城市各个角落的数据编织成城市数据“全息图谱”,为精准识别治理痛点、科学配置治理资源提供全景数据支撑。 以数据治理的“标准协同”,构筑城市治理的“信任基石”。数据治理是提升治理精度的核心环节,推动数据从“可用”到“好用”,推行“一数一源一标准”,完善数据清洗规则,建立数据质量评价体系,通过跨层级闭环处置机制解决数据失真、滞后等问题。探索AI驱动的目录智能检索、治理规则智能推荐等场景,实现数据治理从“人工审核”向“智能优化”的升级,让数据成为识别城市风险、预判治理问题的信任资产,为多元主体协同治理提供数据保障。 以数据共享的“场景牵引”,激活城市治理的“乘数效应”。数据共享是释放数据要素价值的关键环节,数据共享的核心在于价值共创。搭建城市级数据共享平台,建立跨部门、跨层级的数据流通机制,实现公共数据“一本账”管理、“一平台”运营、“一体化”应用,以“场景牵引”推动数据从“静态资源”转化为“动态动能”,让数据要素与治理场景深度融合,产生“1+1>2”的乘数效应。 超大城市现代化治理的路径,本质上是数据要素与治理需求深度耦合的路径。要持续完善数据要素市场机制、强化数据安全与隐私保护、推动数据应用创新,充分释放数据要素价值潜力,为超大城市治理数智化转型注入持久动能。 作者: 重庆市城市管理局党组成员、副局长 李昌良 来源(公众号):北京数据
2025-12-17 17:46 188
在数字化浪潮的猛烈冲击下,制造业正经历一场脱胎换骨的深刻变革。如今,这场变革已硕果累累,数字化转型成效显著,而数据治理作为关键支撑,正大步迈向更深层次。 数字化转型:制造业的显著成果 生产流程智能化重塑 传统制造业生产流程繁杂,依赖大量人力,效率低且易出错。数字化转型后,智能设备和先进系统成为生产主力。以电子制造为例,自动化生产线上机械臂精准高速完成芯片贴装、电路板焊接等精细操作,速度和精度远超人工。智能生产管理系统实时收集生产数据,依据预设算法自动调整参数,优化生产节奏,避免设备闲置与物料浪费,生产周期大幅缩短,生产效率实现质的飞跃。 产品质量全方位升级 数字化转型为产品质量把控提供强大助力。生产线上遍布的传感器和检测设备,如同“质量卫士”,实时采集产品尺寸精度、物理性能、化学成分等关键数据。借助大数据分析和人工智能算法深度剖析海量数据,能迅速发现潜在质量隐患和细微偏差。问题出现时,系统立即报警,生产人员及时调整工艺参数,确保质量稳定。同时,数字化质量追溯系统详细记录产品全流程信息,质量问题可快速精准定位源头,实现高效召回处理,大幅提升产品质量水平。 供应链协同高效运转 数字化转型推动制造业供应链协同能力显著增强。搭建数字化供应链平台后,企业与上下游伙伴实现信息实时共享交互。供应商依据企业生产计划和实时库存精准安排原材料供应,避免库存积压或缺货;经销商及时了解产品库存和销售动态,合理规划采购;物流商根据订单优化配送路线和方式,提高物流效率。这种协同模式降低企业库存和物流成本,提升供应链响应速度和灵活性,增强市场竞争力。 创新活力充分释放 数字化转型为制造业创新发展开辟广阔天地。一方面,新兴数字化技术带来全新研发设计方式。设计师利用虚拟现实技术进行虚拟设计和模拟测试,提前发现设计缺陷,减少实物样机制作次数,缩短研发周期;3D打印技术快速制造产品原型和小批量产品,加速验证改进进程。另一方面,数字化转型促进企业间合作创新。通过数字化创新平台,企业与高校、科研机构及其他企业联合研发,共享资源技术,共同攻克难题,推动行业技术进步。 数据治理:向更深层次发展的必然 数据价值深度挖掘需求迫切 制造业数字化转型深入,企业数据量爆炸式增长。这些数据蕴含市场、生产、客户反馈等信息,对企业决策、生产优化和市场拓展价值巨大。但目前许多企业数据利用仅停留在表面,缺乏深度挖掘能力。为释放数据价值,企业需加强数据治理,构建完善管理体系和挖掘分析机制,提高数据质量和可用性,探寻数据背后潜在价值,为战略决策和业务发展提供支撑。 数据安全与隐私保护挑战严峻 数字化时代,数据安全与隐私保护是制造业重大挑战。制造业数据涉及企业核心机密和客户敏感信息,如生产工艺、产品设计、客户订单、个人身份等,泄露将带来巨大损失和声誉损害。随着网络攻击手段升级和数据泄露事件频发,企业对数据安全与隐私保护需求愈发迫切。企业需加强数据治理,建立完善安全管理制度和技术防护体系,加强数据访问控制、加密存储传输、备份恢复等管理,确保数据保密性、完整性和可用性。 数据标准与规范统一需求凸显 制造业数字化转型中,不同企业、系统和设备间数据格式、定义和接口存在差异,形成数据孤岛,影响企业内部协同和外部合作。为打破数据孤岛,实现数据互联互通和共享共用,企业需加强数据治理,建立统一数据标准和规范,对数据格式、定义、编码、分类等进行统一规定,确保数据一致性和兼容性。同时,搭建数据交换和共享平台,为企业间数据共享和业务协同提供技术支持。 重视数据治理人才培养 企业应加强数据治理人才培养,建立完善人才培养体系和激励机制。通过内部培训、外部培训、在线学习等方式,提高员工数据治理知识和技能水平,鼓励数据岗位相关员工考取数据类证书,充实数据治理团队。 来源(公众号):数据治理研究院
2025-12-12 16:30 242
现在随便走进一个人工智能战略会议,你就能立刻感受到那种氛围——紧张、兴奋,以及组织内部对落后的隐隐担忧。 我们正身处一场模型智能之战之中,每个领导者都想要最智能的模型,每个架构师都想要最先进的流程,每个工程师都在凌晨两点偷偷刷新基准排行榜。 而在这场战争中,一种危险的思想已经根深蒂固: “更精准=更有价值。” -听起来合乎逻辑。- 感觉很科学。- 在幻灯片上看起来很棒。 但这也是当今人工智能架构中最昂贵的陷阱之一——这个陷阱悄无声息地拖垮了预算,使项目脱轨,并使云账单膨胀了数百万元,直到首席财务官开始提出一些令人不安的问题,才有人注意到。 这个故事讲述了为什么准确率会变成一个虚荣的指标……以及如果不小心,它会如何毁掉你的人工智能战略。 一 模型智能之战以及它为何会伤害你 过去两年,人工智能行业一直在全速冲向一场决战: “你用的是哪个LLM项目?” 你进行过微调吗? “你参加的是70B计划还是400B计划?” 为什么我们不使用最新型号? 各团队开始像青少年比较球鞋发售日期一样比较参数数量。 而领导人——不愿显得“落后”——反而火上浇油: 更大参数的型号获得了批准。 分配了更多GPU。 人们默默地期待着完美。 突然间,工程团队不再构建解决方案,而是构建声明,试图跟上同行或竞争对手在会议上提到的任何模型。 这正是组织最终为了追求准确性而追求准确性的原因——这是最昂贵的陷阱。 二 收益递减规律且成本极高 以下是机器学习中一个令人不安的真相: 达到80% 的准确率很容易。 达到90%的准确率是可以实现的。 达到95%的准确率是极其痛苦的。 预算一旦达到99%的准确率,就注定失败。 为什么? 因为每一次渐进式的改进都需要: 更多数据 更清晰的标签 更多训练周期 更大参数的型号 更多 GPU 小时数 加强监测 更多实验 更多的一切 数学计算很残酷。 提高准确率往往会遇到收益递减的问题——每提高一个百分点,都需要指数级增长的计算能力、时间、人才和金钱投入。 当准确率达到90%以上时,你对抗的不再是随机性,而是物理定律。 在许多情况下,为了提高最后 2-3% 的准确率而付出的成本,比该模型的整个商业价值还要高。 这就是陷阱。 准确率不是一个衡量标准,而是一个商业决策。 让我们从首席财务官的角度来看待“准确性”这个概念: 精准是要花钱的。 不准确会造成经济损失。 你的任务是确定在经济上最合理的最低精度要求。 目标不是完美, 而是最优经济效益。 以下是高管们真正应该关注的框架:三大准确度区域及其真正的商业价值。 1.低风险区(准确率 80-90%) 使用案例:推荐、标签、排名、内部搜索。 错误并非总是会对企业造成损害(“视情况而定”)。 速度和成本比精确度更重要。 每次请求成本为 1 分、准确率达到 85% 的模型,其投资回报率通常是准确率 98%、成本为 15 分的模型的10 倍。 这就是聪明的团队选择小型模型并取得成功的原因。 2.人机交互区域(准确率90-95%) 使用案例:客户支持草稿、代码生成、文档摘要。 人工智能负责繁重的工作, 人类则处理特殊情况。 这个区域简直是个金矿。无需花费巨资进行最后一公里自动化, 就能大幅提高生产效率。 混合智能总是胜过过度设计的完美方案。 3.关键区域(99%以上) 应用案例:欺诈检测、医疗预测、自主系统、合规性。 在这些情况下,错误会造成严重的法律、经济甚至生命危险后果。 是的,在这里,你需要投入大量资金。 但大多数公司犯的错误是什么呢? 把每个问题都当作第三区的问题来处理。 三 一个真实的故事:一台价值 0.15 元的收据扫描仪证明了这一点 一家物流公司希望实现费用收据处理的自动化。这是一个简单的应用案例。 但高层有人坚持说: “我们需要99%的准确率。” 因此,数据团队建造了一个巨大而笨重的视觉模型——本质上是一个用于观察咖啡收据的显微镜。 每次扫描费用:0.15元 平均收据金额:3-7元 他们花在核对收据上的钱比报销的钱还多。 当他们转而使用: 微型模型 准确率 85% 疑难病例需人工审核 总成本下降了80%,处理速度加快了,而且人类的速度仍然比以前快 10 倍。 他们不需要完美, 他们需要的是盈利。 四 如何打破组织内部的准确性迷思 最快的方法是什么? 用数据说话,不要凭感情用事。 带上一个模型 ROI 计算器,将准确率转化为元、人力、计算和总业务成本。 为了计算真正的投资回报率,我们不能仅仅考虑推理成本。我们还必须考虑干预成本(人类纠正人工智能低置信度猜测的成本)和失败成本(人工智能出错但无人发现的成本)。 总成本 = 模型成本 + 人工审核成本 + 错误责任成本 核心输入(变量) 让我用上面收据用例中的例子来说明这一点。 选项 1——高级高精度型号 让我们用一个昂贵、高精度(99%)的模型来运行收据用例成本。 方案二——混合模式(高效+人机协作) 让我们用一个足够高效的模型(准确率达到 85%)加上人工参与,来运行收据用例成本计算。 最终比较 突然间,准确性不再是一个技术问题,而变成了一个经济问题。 五 最终结论:智能人工智能并非最智能的人工智能,而是最经济的人工智能 未来十年最大的竞争优势不会来自最大的型号或最令人印象深刻的基准模型。 它将来自那些理解这个简单真理的组织: 模型不需要完美,但必须盈利。 最终胜出的公司将是那些: 选择合适的精度区域 停止追逐虚荣指标 巧妙地运用人类 精明消费,而非大手大脚花钱。 优先考虑投资回报率而非排行榜分数 摒弃“准确性=价值”的迷思 因为完美是一种奢侈, 而盈利才是生存之道。 来源(公众号):数据驱动智能
2025-12-11 12:22 205
文 | 国家数据发展研究院副院长 袁军 习近平总书记指出,“数字技术作为世界科技革命和产业变革的先导力量,日益融入经济社会发展各领域全过程,深刻改变着生产方式、生活方式和社会治理方式”“要构建以数据为关键要素的数字经济”。当前,数据要素作为新型生产要素已成为驱动新质生产力发展的核心引擎。但我国数据要素相关学科专业和数字人才队伍建设,与数字经济和人工智能快速发展的要求还存在一定差距。在此背景下,国家发展改革委、国家数据局、教育部、科技部、中共中央组织部出台《关于加强数据要素学科专业建设和数字人才队伍建设的意见》(以下简称《意见》),以“数据要素学科专业建设和数字人才队伍建设”(以下简称“两个建设”)为核心,构建教育链、人才链与产业链、创新链深度融合的完整生态,对于抢占数字时代发展制高点具有深远战略意义。 一、战略定位:从人才短板到创新引擎,锚定“两个建设”的时代使命 当前,数据要素学科建设存在专业设置不合理、人才队伍结构不优、理论与实践脱节等突出问题,制约了深化数据要素市场化配置改革和数据赋能人工智能高质量发展等国家战略部署的落实。 (一)“两个建设”是落实中央战略部署的创新实践 党的二十大提出“加快建设教育强国、科技强国、人才强国”的战略目标,党的二十届三中全会强调“统筹推进教育科技人才体制机制一体改革,构建支持全面创新体制机制”,党的二十届四中全会进一步强调“一体推进教育科技人才发展,深入推进数字中国建设”。《意见》紧扣中央精神,建立数据领域科技发展、国家战略需求牵引的学科专业设置调整机制和人才培养模式,为推动数字技术创新和科技自立自强提供了坚实的人才支撑和制度保障,勾勒了与数字中国以及教育强国、科技强国、人才强国建设进程相匹配的人才培养时间表和路线图。 (二)“两个建设”是发展新质生产力的基石力量 数据是人工智能时代的战略性、基础性新型生产要素,也是形成新质生产力的优质生产要素。其可共享、可复制、无限供给等特征,超越了传统生产要素的局限,能够优化生产资本结构,推动产业优化升级,提升全要素生产率;同时,能够重构生产力系统内在质态,推动劳动资料从物理实体升级为“软硬一体”的智能系统,劳动对象从有形资源扩展至高价值知识产品,劳动者则从操作者转型为驾驭智能工具的“数智化主体”。《意见》通过系统性构建数据要素学科专业体系,为数据要素价值释放培育新型数字人才。 (三)“两个建设”是破解数据要素人才困局的重要举措 我国已从数据产权、流通交易、收益分配、安全治理四个方面开始构建数据基础制度体系。《意见》聚焦数据要素市场化配置改革中的人才支撑问题,针对传统人才培养体系与数据要素市场发展需求错配问题,通过构建“两个建设”具体制度,推动数据要素治理制度从“框架搭建”向“落地实施”延伸。 二、核心内容:构建“四位一体”发展体系,打通数字人才培养全链条 《意见》围绕学科专业、职业教育、学术研究、产学研用四大维度,以产教融合优化人才供给结构、以科教融汇推动创新与育人互促、以科产融通强化实战能力等“三融”为手段,共同构建了从理论创新到产业应用的全链条人才培养体系。 (一)优化学科专业布局,筑牢人才培养根基 学科专业是人才培养的基石。《意见》从优化学科设置、分层分类建设、建强教学要素三方面入手,推动数据领域学科专业系统性构建。一方面,建立“本硕博衔接”的培养机制,解决传统教育中本科教育宽而不精、研究生培养与产业脱节问题。另一方面,创新性地提出“分层分类”建设思路,支持综合性高校建设数字学院整合资源,引导理工类、财经类等特色高校加强优势专业建设,鼓励地方因地制宜建设数据院校。增设“数据采集清洗、数据标注、数据合规、数据运营”等贴近市场需求的专业,精准对接数据产业链各环节的人才需求。这一系列学科专业布局,既保证高端研究型人才的培养,又满足市场对应用型、技能型人才的迫切需求。 (二)深化产教融合与职教改革,打通人才成长“最后一公里” 实践能力是产业落地的关键。《意见》以产教融合生态构建、教育教学改革、课程资源开发为主线,着力破解“学用脱节”痛点。在产教融合上,提出打造“市域产教联合体”和“跨区域产教融合共同体”的创新模式,推动人才培养与产业需求深度绑定。在职业教育改革上,鼓励企业深度参与职业院校教学,通过校企共建实训基地、共育师资队伍,有效破解教育教学与市场需求脱轨的困境。在课程设计上,突出实践导向,支持企业与院校开发基于真实场景的数字课程、工作手册式教材及项目案例库,推动优质资源全域共享。 (三)繁荣数据领域学术研究,强化数字人才创新能力 数据要素市场化配置需理论支撑。《意见》以“有组织科研”破解数据领域学术研究分散化、脱离实践的问题。一方面,开展数据产权、定价、交易等基础理论研究,紧跟人工智能、区块链等前沿技术,构建中国特色的数据要素自主知识体系。另一方面,加强数据领域学术共同体和数字人才梯队建设,依托学术期刊专栏、数字中国建设峰会等平台促进成果交流;同时推动科学数据与产业数据开放共享,为学术研究提供数据支持。 (四)推动产学研用深度融合,实现人才价值最大化 人才培养的最终目标是服务产业发展,《意见》以应用场景为载体,推动产学研用深度融合。一方面,通过“企业主导、多方协同”的模式,建设数字人才培养典型应用场景,支持高校、科研机构与企业联合开发技术、共享知识产权收益。另一方面,利用产业基础好、应用场景多的区位优势,鼓励数字中国建设综合试点、数据要素综合试验区等区域探索特色培养项目。通过场景驱动、项目牵引,让人才在实践中成长为“能用、好用”的实战型专家。 三、实施亮点:三大协同机制,为人才培养提供“制度保障” “两个建设”是一项系统工程,《意见》也在制度层面构建了高度协同的保障机制。 (一)多部门联动、央地协同,打破部门与层级壁垒 《意见》明确国家数据局会同教育部、国家发展改革委、科技部建立常态化联系机制,统筹推进“两个建设”;组织部门加强资源整合,避免“教育不管产业、产业不管人才”问题出现。在央地关系上,中央明确战略方向,地方结合区域产业优势制定细化方案,既确保全国层面政策的一致性,又赋予地方灵活性,保障政策落地见效。 (二)“政校企研”跨主体协同,构建人才培养闭环 数字人才培养需多方参与。《意见》通过制度设计推动政府、企业、高校、科研机构深度协调:政府搭建产教联合体、制定行业标准,为校企合作提供桥梁;高校与企业在学科专业建设、职业教育、学术研究各环节,精准对接教学内容与产业需求;科研机构提供理论和技术底层支持,推动前沿知识进课堂。各方通过分工协作,形成深度协同的人才培养闭环。 (三)学科专业设置与技术迭代协同,保持政策灵活性 数据领域产业需求变化快,极易出现培养滞后于需求的问题。《意见》坚持“动态调整”原则,如职业院校需“及时动态调整数据相关专业”,高校可根据产业急需开设“微专业”,数据管理部门需“跟踪监测实施效果、总结推广典型案例”。这一机制能让“两个建设”紧跟数据产业发展节奏,保持政策与技术发展同频。 《意见》的出台,标志着我国数字人才建设从分散探索迈向系统化、专业化、高质量发展的新阶段。既立足当前破解人才短缺的现实难题,又着眼长远构建人才发展的长效机制;既注重顶层设计的系统性,又强调实施路径的可操作性。随着政策的落地实施,我国将逐步构建起“教育链、人才链与产业链、创新链”深度融合的数字人才生态,为数据要素市场化配置改革提供坚实支撑,有力促进数据要素全面赋能新质生产力发展。 来源(公众号):北京数据
2025-12-10 22:21 252
文 | 国家数据专家咨询委员会委员,中国政法大学副校长、教授 时建中 数据流通安全治理规则是数据基础制度的重要内容,是实现高质量数据更大范围、更高效率、更加有序流通的前提,是充分释放数据价值的制度条件,是推动建设高水平数据市场的保障。国家数据局会同有关部门制定发布的《关于完善数据流通安全治理 更好促进数据要素市场化价值化的实施方案》(以下简称《方案》)全面贯彻总体国家安全观,统筹发展和安全,对于建立健全数据流通安全治理机制、提升数据安全治理能力、促进数据要素合规高效流通利用具有重要意义。《方案》坚持系统思维、底线思维,凸显了战略思维、法治思维,立足“安全”、落脚“发展”,明确了七项主要任务,以成本最小化实现安全最优化,推动数据高质量发展和高水平安全良性互动,加速构建繁荣且有序的数据市场,为充分释放数据价值、不断做强做优做大我国数字经济、构筑国家竞争新优势提供坚实支撑。 一、明晰数据流通安全规则,营造有序数据流通环境 规则是秩序的基石。《方案》将明晰数据流通安全规则标准、压实数据流通安全责任、强化数据流通权益保障作为重点任务,通过建设安全可信的制度环境助力营造稳定有序的数据流通环境。在规则设计的部署上,《方案》始终坚持以数据分类分级保护为基本原则,以数据安全标准体系建设为重点,细化了《数据安全法》第17条、第21条等有关规定,夯实了《方案》的法治基础。 其一,《方案》以数据分类分级保护原则为抓手,探索不同类型、不同风险等级数据流通规则的差异化设计方案,聚焦不同的数据安全保障重点,落实数据流通安全保障措施,压实数据流通安全责任。针对企业数据,《方案》明晰了重要数据与一般数据的差异化处理规则。构建了数据处理者依规识别、申报、采取必要安全措施保护重要数据的制度;针对政务数据,《方案》区分了数据提供方和数据接收方的数据流通安全管理责任原则,明确了公共数据授权运营机构的安全管理责任;针对个人数据,《方案》细化了《个人信息保护法》中“知情同意”相关规则及“匿名化处理”有关规定。同时,《方案》提出以国家网络身份认证公共服务等多种方式,以制度创新强化个人数据流通保障。 其二,《方案》强化了数据流通安全相关的标准建设,例如,制定或完善个人信息匿名化相关标准规范、数据流通安全标准、重点场景安全治理标准,健全数据流通安全治理机制,规范和促进数据流通。在贯彻落实《方案》、推动数据安全标准体系建设过程中,需要把握好“三组”关系:一是国家标准、地方标准和团体标准的关系;二是强制性标准和推荐性标准的关系;三是通用标准和特定应用场景标准的关系。强化数据安全标准底层互通性,切实发挥好数据标准的引领性作用,提高数据安全治理效能。 二、创新数据流通安全技术,提升数据安全治理效率 数智技术既是法治的对象,也是赋能法治的工具。《数据安全法》第16条规定国家支持数据开发利用和数据安全技术研究,数据安全技术与数据开发利用密不可分。《方案》将加强数据流通安全技术应用、支持数据流通安全技术创新作为重点任务、重要环节,本身就是一种创新。信息是数据的内容,数据是信息的载体。只有同步推进数据内容安全保护技术和数据载体安全保护技术的开发应用,方能有效且全面地支撑数据安全治理,促进数据流通发展。 在数据内容安全保护技术方面,《方案》不仅强调了数据脱敏、匿名化、数字水印等常见技术手段在保护国家安全、个人隐私和公共安全上的重要作用,而且提出了要融合运用数据指纹、区块链等新型技术手段,以实现数据流转过程留痕、数据交易全程追溯,高效支撑数据流通中的取证和定责,提升数据安全治理效能。 在数据载体安全保护技术方面,应以推动顶得上、稳得住的数据基础设施建设为重点。数据基础设施既是保障数据安全的能力底座,又是支撑构建全国一体化数据市场的重要载体。《方案》落实党的二十届三中全会所提出的“建设和运营国家数据基础设施,促进数据共享”的要求,对于数据流通利用基础设施的接入和使用,按照数据分类分级保护的原则,依法作出了制度安排。尤为值得肯定的是,《方案》提出“对于未认定为重要数据,但企业认为涉及重要经营信息的,鼓励数据提供方、数据接收方接入和使用数据流通利用基础设施,促进数据安全流动。”数据接入是任何形式数据处理和使用的前提,保障数据接入安全是数据流通利用基础设施的重要功能。在数据基础设施建设与应用过程中,应坚持最大幅度降低接入成本、提供接入的技术便利、公平对待所有接入企业等原则,保障数据安全,促进数据开发利用。 三、打造数据流通安全服务,强化市场主体交易信心 我国数据产存转化率低,数据产得出却难流动,看起来海量用起来不多,关键原因在于过高数据流通风险成本与较低数据流通收益之间的矛盾,导致市场主体对数据流通交易普遍缺乏信任、且信心不足。针对数据流通的现状,只有降本增信,才能提质增效。在总体要求中,《方案》提出“以成本最小化实现安全最优化”是化解数据流通堵点的正确之道。在主要任务中,《方案》提出“丰富数据流通安全服务供给”,贯彻“以服代管”的思想理念,对保障数据流通全过程全环节的安全具有重要意义,标志着我国在数据流通安全治理理念和思路转型上迈出了重要一步。 具体而言,《方案》一方面积极健全数据流通安全服务内容、充实服务供给,以培育健全数据流通安全检测评估、安全审计等服务,提升数据流通过程中的主体信任;以丰富数据托管等服务供给,研究探索为数据安全提供保险保障的可行方案,加强数据流通过程中的风险应对信心。《方案》另一方面鼓励支持数据流通安全服务创新、繁荣服务市场,通过强化数据安全服务的基础理论研究和核心技术攻关,加速数据安全服务发展专业化、规模化和一体化,实现服务增量,提升服务效能。值得强调的是,在数据流通安全服务多态性发展和规模性扩增的过程中,仍需以市场现实需求为导向、生产应用场景为牵引,更好地发挥市场作用,不可忽视数据安全服务有效竞争在促进数据安全服务高质量创新方面的重要功能。 四、加强数据流通安全执法,维护数据市场运行秩序 数据流通安全执法对保障数据流通过程安全、维护数据市场运行秩序具有显著功能。其一,通过严厉打击数据违法使用行为,防范化解数据流通安全风险;其二,维护数据流通各方主体权益,优化数据市场运行环境;其三,执法是最好的普法,通过发挥典型执法的示范效应,培育数据安全流通的市场文化。 加强数据流通安全执法效能关键在于执法能力建设。《方案》中明确指出要研究完善数据流通安全事故或纠纷处置机制,提升流通风险应对能力。在理解把握和贯彻落实时,首先,应当建立对执法本身的监督机制,避免机械执法、选择性执法、运动式执法等;其次,应当加强执法机构间的协同机制,明确权责清单、推动执法信息共享、强化跨行业领域执法合作等;最后,应当完善执法透明度机制,合理披露执法过程信息、适时开展执法情况通报等。数据流通安全执法应始终秉承为民执法、依法执法、规范执法,在法治轨道上推进数据流通和数据市场建设。 安全是发展的前提,发展是安全的保障。以高水平的数据安全体系建设,保障数据依法有序自由流通,充分发挥我国海量数据规模和丰富应用场景优势,实现数据高质量发展和高水平安全良性互动、相得益彰,才能持续繁荣数据市场,为培育发展新质生产力注入强劲动能。 来源(公众号):北京数据
2025-12-09 18:11 188
热门文章