简而言之:Malt内部的AI转型并非始于董事会的战略规划或巨额预算,而是始于五个人,他们看到了别人眼中只有任务却蕴藏的巨大潜力。本文讲述了我们如何凭借这股自发的力量将AI采用率提升至55%,以及为什么这还远远不够。 “有了人工智能,我们就不再需要实习生了。” 你到处都能听到这种说法。但在 Malt,我们发现了截然不同的现实。 经验对于制定策略和做出判断至关重要,但我们注意到,初级员工和实习生往往能最快地接受这些新的工作流程。为什么呢?因为他们不受“我们一直以来的做法”的束缚。 他们无需先摒弃旧方法再学习新方法。他们只需要面对一个问题,拥有一个新工具,以及将二者联系起来的好奇心。 许多组织都倾向于通过公司顶层部门推进人工智能项目,而我们的转型则始于更为自然的过程。这主要得益于一群背景多元的核心技术领导者,他们各自发挥独特优势,共同将人工智能打造成为一项切实可行且具有变革意义的业务资产。 不是我们的战略创造了工作,而是工作创造了战略。 催化剂组合 我们的成功并非归功于某一位天才,而是归功于一个团队,团队成员的多元优势自然融合,共同产生了巨大的影响。 当时的首席数据与人工智能官克莱尔很早就意识到,这并非技术上的更新,而是一次组织架构的变革。她为我们提供了失败的掩护。 数据平台总监阿奈斯专注于“交付”。当其他人都在谈论“颠覆”时,她却将愿景转化为切实有效的试点项目。 Nicolas,机器学习运维工程师,利用业余时间构建了第一个智能体 RAG 系统。他将“如果……岂不是很酷?”变成了“来,试试这个链接。” 数据工程师乔丹证明,如果一个Python脚本只能由三个人运行,那么它就毫无用处。他构建了将大脑(人工智能)与双手(Slack)连接起来的基础设施。 而我本人,是数据项目经理。我的职责是打破信息孤岛,将技术能力转化为业务现实。 这个团队之所以能够蓬勃发展,是因为他们能够本能地划分角色,并充分发挥彼此的优势。克莱尔定义了“为什么”,阿奈斯构建了“如何做”,尼古拉斯证明了“这是可能的”,乔丹构建了“可扩展性”,而我则确保了“推广”。 一切的起源——这个用例 产品知识助手(2024年2月) 每个正在扩张的公司都会面临“知识问题”。 在 Malt,以前要找到某个具体的法律政策或产品详情,就像考古挖掘一样,得花上十分钟,翻遍 Notion 页面、Confluence 文档,还要翻遍埋没在 Slack 讨论串里的帖子。 尼古拉斯构建了一个技术精湛的RAG系统,但它过于复杂,只有技术专家才能使用。乔丹则富有远见地将其移植到Slack平台,使之成为人人都能轻松使用的工具。 我的职责是在此基础上进行规模化发展。我们按角色对响应进行了垂直划分(销售人员和支持人员需要的信息不同),使界面更加直观,并向所有员工开放。 技术架构很简单:借助 Dust.tt,RAG(检索增强生成)将我们的文档连接到对话界面。没什么革命性的。 但效果显著。人们第一次感受到了这些工具的潜力。而且,这些工具的使用也通过 Slack 频道自然而然地传播开来。 从最初的成功出发,我们自然而然地开发出了销售异议处理助手、国际团队翻译工具,并逐步构建了如今我们拥有的庞大专业代理库。每一个新的业务需求都成为了拓展新业务领域的契机,而我们始终遵循着同样行之有效的方法:技术创新、Slack平台的便捷访问以及规模化应用。 以下是该 Slack 频道在短短一年内的发展历程: 涟漪效应 我们最初的成功源于一个意想不到的地方:我们影响了我们自己的员工。数据和产品团队率先接受了我们的理念,并非因为我们强制推行,而是因为他们在日常工作中看到了立竿见影的价值。 最初只有数据团队的五个人参与,但这种现象开始在整个组织内蔓延开来。这并非通过强制规定或培训计划实现的,而是源于一种“良性竞争”。 当市场部看到销售部利用邮件草稿节省了大量时间时,他们也想效仿。当产品部看到客服部实现了自动回复时,他们也开发了自己的助手。当财务部看到运营部简化了报表流程时,他们也开始尝试。 这种自然增长感觉很神奇。没有自上而下的压力,没有变革管理顾问,只有人们看到了价值,并渴望从中受益。 凭借这股势头,我们在不到六个月的时间里实现了 40% 的用户采纳率。 55% 高点 到 2025 年 4 月,也就是 12 个月后,这种魔力消失了。我们的用户采用率达到了 55% 的瓶颈。使用指标趋于平稳。新助手的创建速度也放缓了。 我们分析了事件经过: 创新者(约占公司10%)已经全面采用了所有技术。他们不断创造、试验、突破界限。 早期用户(约占15%)的出现是自然而然的。他们看到了价值,并积极参与其中。 随后,约30%的人接受了劝说。这前半部分人很容易通过现场演示被说服。 但早期大多数(接下来的45%)并没有改变主意。他们提出了一些我们尚未解答的合理问题: “我已经能高效工作了,为什么还要花时间学习这个?” “ChatGPT Plus 功能更强大。为什么还要用你们的工具呢?” “如果明年它就过时了怎么办?” “这岂不是让我变得可有可无了吗?” 影子人工智能经济应运而生:90% 的员工使用个人人工智能工具(ChatGPT、Claude、Mistral),但只有 55% 的员工信任我们的官方解决方案。 我们吸取了一个惨痛的教训:自下而上的能量可以点燃火焰,但却无法控制火焰的燃烧。 瓶颈教会了我们什么 第一点:自然增长势头有限。 自下而上的力量对早期推广非常有效,但它无法跨越鸿沟,最终被主流市场接受。早期大众需要的是:证据、支持、清晰的价值主张,以及就业前景的答案。 第二点:创新者自身无法扩大规模。 我们五人的核心团队已经人手饱和。五十多位早期用户热情高涨,但在帮助他人方面却缺乏一致性。我们有活力,但缺乏组织架构。 第三点:我们没有正视人们真正的恐惧。 人们并非害怕人工智能,而是害怕: 把时间浪费在粘性差的工具上。 明明有更好的工具,却偏偏使用劣质工具。 投资于无法转移的技能 被取代而不是增强 第四点:我们需要一种新的方法。 自下而上的创新使我们达到了55%的转化率。要达到90%,我们需要自上而下的赋能。不是控制,而是协调;不是强制,而是系统性的支持。 战略转向 克莱尔和阿奈斯决定:我们将通过研讨会来系统化我们的方法。不是通用培训,而是定制化的实践课程,让人们能够为他们的实际工作构建真正的解决方案。 这一决定标志着增长模式从有机增长转向结构化规模扩张。从5个人四处宣传,到50个团队赋能建设者;从被动接受,到主动推动。 推动变革的三大要素 在这个过程中,我们了解到,跨越鸿沟需要三种特定角色协同合作。我们称之为“三明治模式”。 好奇的C级高管 简介:一位资深领导者,视人工智能为根本性变革而非渐进式改进。他负责分配资源,扫清障碍,并为实验提供支持。 克莱尔正是这种精神的体现。她不仅审批预算,还参与研讨会,分享自己的实验经验,并表明这具有重要的战略意义。 优势:设定愿景,提供资源,为变革创造空间。 缺点:与日常工作距离太远,难以直接推动采用。需要其他层级的配合才能执行。 2. 业务领导 简介:一位注重结果、深入了解团队日常工作的管理者。务实、能够将愿景转化为可衡量的现实。 阿奈斯就是个很好的例子。她找到了高价值的应用案例,严谨地记录了成功案例,并让持怀疑态度的人看到了成果。 优势:精通“如何做”,推动实际应用,并能提供可靠的证据。 缺点:容易形成部门壁垒。过于关注团队绩效,而忽略了跨职能协作。 3. AI原生Junior 简介:通常是实习生或初级员工,从小就接触人工智能。他们没有“我们一直以来都是这么做的”这种先入为主的观念,而是以自动化优先的思维方式来解决问题。 我们遇到了好几个这样的系统。它们带来了没人要求的自动化功能,挑战了长期沿用的流程,并暴露了那些已经变得不易察觉的低效之处。 优势:不带偏见的创造力。快速原型制作。挑战现状。 缺点:缺乏组织背景信息。如果没有经理或高管的支持,影响力有限。 为什么这三层都很重要 缺乏执行的愿景终究只是空想。缺乏支持的基层创新终将消亡。缺乏自上而下愿景或自下而上动力的中层管理者,最终会成为阻碍。 当这三者协同合作时,奇迹就会发生: 高管层提供愿景和资源 管理者将愿景转化为团队执行力 年轻一代带来未经雕琢的创新,并挑战既有观念。 这才是跨越鸿沟的方法。不是自上而下的强制命令,也不是自下而上的混乱局面,而是对这三种力量进行结构化的协调。 我们学到了什么 有效的方法: 从实际问题入手(产品知识) 打造一款简单易用、能立即产生价值的产品 让采用通过同伴影响自然传播 识别并培养天然的冠军 哪些方面行不通: 假设有机增长势头能够一路引领我们走向终点 依靠创新者来教授主流知识 没有及早解决就业能力问题 低估了系统性支持的需求 突破性见解:要引发一场革命,你需要有机能量。 要想在公司范围内推广,就需要构建相应的结构。 第一阶段关注的是火花,第二阶段关注的是系统。 接下来会发生什么? 我们曾拥有发展势头,也取得了显著成效。我们的用户采纳率达到了55%,并且拥有一个忠实的拥护者社群。但我们也遇到了瓶颈,存在一些未解的疑虑,而且对于如何获得剩余的45%的用户,也没有明确的途径。 下一阶段需要采取不同的方法:系统性的研讨会、协调的基础设施,以及对棘手问题的坦诚解答。这需要我们承认自身的不足,并为那些并非天生创新者的人建立支持体系。这需要跨越鸿沟。 来源(公众号):数据驱动智能
2026-03-04 19:56 105
Palantir Ontology Palantir 的软件为全球众多关键的企业和政府领域提供实时、人工智能驱动的决策支持。从公共卫生到电池生产,客户依靠 Palantir AIP 安全、可靠、高效地在其企业中利用人工智能,并推动运营成果。 Ontology旨在表示企业中的决策,而不仅仅是数据。世界上所有组织的首要任务都是在不断变化的内外部环境中,实时做出最佳决策。传统的数据架构无法捕捉决策背后的推理过程或最终的行动,因此限制了学习和人工智能的集成。传统的分析架构无法将计算置于实际环境中,因此与运营脱节。为了在当今世界取得成功,现代企业需要以决策为中心的软件架构。 为了理解Ontology的价值,让我们首先考虑任何决策的三个要素: 数据,用于做出决定的信息。 逻辑,评估决策的过程 行动,决策的执行。 从根本上讲,每个决策都由数据(用于做出决策的信息)、逻辑(评估决策的过程)和行动(决策的执行)组成。Ontology将决策的这三个组成要素整合到一个可扩展、动态、协作的基础中,从而反映出组织随着时间推移而不断变化的情况和目标。 数据 如今,企业面临着前所未有的海量数据。数据源的数量、种类和更新速度不仅在不断增长,而且随着时间的推移还在加速发展。尽管人们已经对数据清洗和统一的益处进行了大量讨论,但在人工智能时代,首要问题是数据的相关性。相关数据当然包括企业的所有数据源——结构化数据、流式和边缘数据源、非结构化存储库、图像数据等等——但也包括最终用户在决策过程中生成的数据。这种“决策数据”包含了特定决策的背景信息、评估的不同选项以及最终选择可能带来的后续影响。生成式人工智能提供了一种突破性的能力,能够从海量的决策数据中综合学习,并持续丰富人工和人工智能驱动的工作流程。当然,将所有企业数据与不断变化的决策数据环境相集成,需要一种与针对报告和分析优化的传统数据库管理解决方案截然不同的架构。 Ontology将所有数据模态整合到一个全面、高保真度的企业语义表示中。各种运营数据源(ERP、MES、WMS 等)可以与来自物联网和边缘系统的数据流、非结构化数据存储库的相关部分、地理空间数据存储等进行同步和上下文关联。Ontology整合并激活这些分散的数据池,并以企业语言呈现它们。它不再使用将丰富运营信息扁平化为狭隘模式的“黄金表”,而是以对象、属性和链接的形式展现企业的完整面貌,这些对象、属性和链接实时演化,并可直接嵌入到决策工作流程中。至关重要的是,Ontology旨在安全地捕获运营用户在日常工作中产生的决策数据(例如,在供应链、医院系统、客户服务中心等)。决策的端到端“决策谱系”,包括决策的做出时间、所依据的企业数据版本以及所使用的应用程序,都会被自动捕获并安全地提供给人类开发人员和生成式人工智能。这为大规模人工智能驱动学习提供了必要的全面基础。 Ontology将所有模态的数据整合到一个全面、全保真度的语义表示中,捕捉企业不断变化的现实,并作为强大的 AI 驱动工作流程的基础。 逻辑 数据固然是基础,但它只是决策过程的一个维度;它必须与推理或逻辑相辅相成,后者决定了何时以及如何做出特定决策。支撑决策的逻辑可以是核心业务系统中的简单业务逻辑,也可以是使用云数据科学工作台维护的预测模型,或是利用多个数据源生成运营计划的优化模型——等等,不胜枚举。在现实世界中,人类的推理能力往往决定着在特定工作流程的不同阶段使用哪些逻辑资源,以及如何将它们串联起来,形成更复杂的流程。随着生成式人工智能的出现,人工智能驱动的推理必须能够像人类历史上那样利用所有这些逻辑资源,这一点至关重要。确定性函数、算法和传统统计过程必须作为“工具”出现,以补充大型语言模型(LLM)和多模态模型的非确定性推理。 Ontology 能够将所有逻辑资产(即决定决策方式的计算和流程)连接起来,并为人类用户和人工智能用户提供上下文关联。这包括客户交互相关的业务逻辑(常见于客户关系管理系统和企业资源计划系统中);驱动传统机器学习的建模逻辑(分布于各种数据科学环境中);以及通常与特定领域工具紧密结合的规划、优化和仿真算法。Ontology灵活的“逻辑绑定”范式提供了一个一致的接口,用于构建能够无缝集成和组合异构逻辑资产的工作流——这些资产可能存在于截然不同的环境中(例如,本地数据中心、企业云环境、SaaS 环境、Palantir 平台)。最终,这意味着人工智能驱动的推理可以顺利地引入到利用各种逻辑集且传统上完全由人类用户主导的决策环境中。 Ontology使用户能够构建整合并组合异构逻辑资产的工作流。最终,这意味着可以将人工智能驱动的推理安全地引入日益复杂的决策环境中。 行动 信息(数据)和推理(逻辑)都融入到共享表示中之后,剩下的建模工作就是决策本身(行动)的执行和协调。实时决策过程中行动闭环的闭合,正是运营系统与分析系统的区别所在。自 Palantir 创立以来,决策的执行与数据综合或分析的整合同等重要。这需要设计和实现一系列广泛的功能,包括如何安全地捕获可能同时发生且潜在冲突的决策;一个协作模型,将能够探索可能决策的人员、能够暂存决策以供审查的人员以及能够最终执行决策的人员进行划分;以及一个用于将决策同步到现有数据库、边缘平台和加固型资产的完善框架。 Ontology以企业决策为中心,构建了一个统一的模型,并对其中的操作进行原生建模。如果Ontology中的数据元素是企业的“名词”(语义化的、现实世界的对象和链接),那么操作就可以被视为“动词”(动态的、现实世界的执行)。在每个本体驱动的工作流中,名词和动词通过人工和/或人工智能驱动的推理组合成完整的句子,其中融合了各种逻辑。虽然将数据整合到语义模型中本身就很有价值,而且整合评估各种可能决策所需的逻辑也至关重要,但除非执行的决策与运营系统同步,否则这一切最终都意义有限。Ontology能够将人工和人工智能驱动的操作安全地部署为场景,并使用与数据和逻辑原语相同的细粒度访问控制进行管理,同时安全地写回企业的每个底层架构——事务系统、边缘设备、自定义应用程序等等。 Ontology以企业决策为中心,在统一的模型中对操作进行原生建模,使人类和人工智能驱动的操作能够安全地作为场景进行安排,并采用与数据和逻辑原语相同的访问控制进行管理,然后安全地写回每个企业底层。简而言之,Ontology将数据、逻辑和行动整合到一个以决策为中心的企业模型中,该模型可供人类和人工智能共同使用。从数据集成到应用程序构建,再到最终用户工作流程,所有环节都通过久经考验的模块化架构驱动——使人类用户和人工智能驱动的辅助系统及自动化流程能够在共享的运营基础上进行查询、推理和行动。 让我们通过一个例子来分析Ontology是如何帮助 50 多个行业的组织在几天内激活 AI 驱动的工作流程的。 操作示例 虚构的医疗设备制造商泰坦工业公司生产一系列成品,从注射器到外科口罩,每一种产品都需要一套精确的原材料经过相应的生产流程。公司拥有一支多元化的团队,负责管理从供应商关系、仓储运营、成品生产到最终客户分销的方方面面;所有决策相互关联,并不断根据不断变化的情况进行调整。简而言之,运营这家公司每天都面临着独特的挑战。 在这个例子中,泰坦工业公司(Titan Industries)的一家主要供应商遭遇了意料之外的供货中断,该供应商提供生产医用口罩所需的关键原材料。鉴于泰坦各制造工厂的生产计划都非常紧凑,而客户对医用口罩的需求却在不断攀升,此次供货中断势必会对完成未完成的客户订单造成严重影响。幸运的是,泰坦的运营管理团队已将各种数据源、逻辑资产和行动系统整合到其企业本体中,因此能够迅速做出响应。 Titan 的Ontology汇集了应对此次原材料短缺所需的所有决策要素:它提供了对每次短缺所涉收入的全面可见性,从而为优先级排序提供信息;它允许人工智能驱动的建议和最终解决方案,这些建议和解决方案都考虑到了企业的运营实际情况;它还推动回写和持续学习,不仅使系统保持最新状态,而且还优化未来的决策。 Titan 将首先评估供应商短缺的直接影响,然后利用人工智能评估生产线上可能的重新分配策略,最后将他们的决定转化为一系列相互关联的行动,这些行动将同时更新仓库流程、生产计划和配送路线。 Titan 的Ontology提供对企业各个相互依存环节运营情况的实时、端到端可视性,使管理层和一线团队都能快速了解供应商中断情况。与供应商管理、仓库运营、工厂生产活动、配送中心处理和客户订单履行相关的关键数据系统都被整合为语义对象和链接,以反映企业的语言。运营负责人只需点击几下,即可精确定位因原材料短缺而面临风险的外科口罩生产线,并通过Ontology中的关联,找到所有同样面临风险的未完成客户订单。Ontology的细粒度安全模型确保随着响应范围扩大到企业内更多团队,更敏感的数据元素(例如财务指标)默认会被自动隐藏。 虽然操作用户可以通过直观的Workshop和SDK驱动的应用程序轻松浏览本体,但大型语言模型 (LLM) 的引入对 Titan Industries 而言却是一次倍增器。利用开源和专有 LLM 的 AI 助手能够流畅地浏览组织本体中包含的供应商信息、库存水平、实时生产指标、发货清单和客户反馈。至关重要的是,所有 AI 活动都受到与人类用户相同的安全策略的控制——确保 Titan 工程师始终能够精确控制 LLM 可以查询、推荐和执行的内容。每个构建和部署的 AI 助手都可以被视为一位新的团队成员,随着 Titan 团队成员对其性能的信心增强,其权限也会逐步扩大。 Titan 的本体整合了来自组织重要系统的数据,将其综合成语义对象和链接,从而提供对运营的实时、端到端可见性,并使领导层和一线用户都能快速评估中断的全面影响。 态势感知只是Ontology冰山一角;泰坦工业公司需要迅速找到应对供应商中断的解决方案,并探索每项可能决策的利弊权衡。幸运的是,泰坦公司已将各种预测模型、分配模型、生产优化器和其他逻辑资产以及上述数据源连接到其Ontology中。这使得供应链分析师能够快速运行一系列模拟,详细分析不同材料替代方案的后果。Ontology的互联性和实时性在此阶段至关重要,因为原材料替代可能会对使用相同材料生产的其他产品(例如注射器、手套)产生下游影响。模拟运行过程中,模拟输出会以Ontology场景的形式呈现,将拟议的变更安全地打包到Ontology的沙盒子集中——使团队能够在做出决策之前安全地探索和分析其影响。 对 Titan 团队而言,真正的变革在于 AI 驱动的辅助驾驶和自动化流程能够安全地利用所有逻辑资产以及相同的场景框架。Ontology使 LLM 能够突破以数据为中心的检索增强生成模式的局限性,并通过可扩展的工具范式与Ontology中相互关联的数据、逻辑和动作原语进行交互。这意味着,当 Titan 的分析和数据科学团队在其云工作台中创建新的机器学习模型、在企业系统中调整优化算法以及使用 Palantir 的开放模型构建框架微调 LLM 时,Ontology会将所有这些逻辑资产安全地呈现为 AI 就绪的工具。在本例中,Titan 创建了一个经过调优的 AI 辅助驾驶“Disruption Bot”,它能够使用一套Ontology驱动的工具来扫描所有企业数据源、先前类似情况下采取的行动的后续报告以及可能适用的物料重新分配模型。由于Ontology提供了丰富而密集的上下文信息,Disruption Bot 能够提出一种全新的资源重新分配方案,该方案采用了一种供应链分析师尚未考虑过的新模型。在模拟场景中安全地呈现了该方案的后果后,人工智能提出的决策将移交给人工分析师进行最终审核。 Ontology安全地将 Titan 的逻辑资产(从机器学习到优化模型)呈现为 AI 就绪工具,为人类和 AI 驱动的工作流程提供丰富、密集的上下文。 泰坦工业公司已制定出切实可行的物料短缺解决方案,需要迅速且安全地将决策下达至运行相关流程的运营系统。鉴于该公司通过收购不断发展壮大,其关键运营系统种类繁多且错综复杂,泰坦的IT团队密切关注哪些流程可以向这些系统回写,以及在何种条件下可以回写。Ontology对操作应用了与数据和逻辑相同的严格控制和验证;这实现了对特定操作执行权限的精细控制、用于发布变更的测试驱动框架、批量暂存和审查变更的能力,以及对每个事件的详细日志记录。在本例中,物料重新分配计划的执行会自动协调一系列回写例程,每个例程都针对接收系统进行了优化:仓库管理系统接收API驱动的更新;三个ERP系统分别通过原生本体驱动的连接器接收更新,这些连接器遵循各自系统中的安全机制;生产计划系统接收一个整合的平面文件,并以异步方式导入。在执行操作的过程中,Titan IT 团队可以监控系统响应,并且始终有权审核过去的活动。 Ontology为人工智能在允许的范围内安全执行操作提供了必要的保障。除了数据和逻辑之外,操作还可以自动呈现为人工智能驱动的辅助驾驶和自动化工具。操作的范围可以仅限于在Ontology本身中反映给定的更改(例如,编辑对象或创建新对象);也可以写回单个或多个系统。在 Titan 的案例中,他们授予了 Disruption Bot 和其他几个生产环境中的人工智能辅助驾驶工具有限的操作权限。默认情况下,这些操作(例如,更改工单状态或推送重新分配计划)只能由人工智能执行,然后交给人工进行最终审核。然而,借助本体(以及更广泛的 Palantir 平台)提供的细粒度日志记录和操作工具,Titan 能够精准地选择哪些值得信赖且成熟的人工智能流程可以自动完成操作闭环,而无需人工审核。随着情况的变化,人工智能的权限可以扩大或缩小,并且会立即反映在所有本体驱动的工作流程中。 Ontology使 Titan 能够自动将操作呈现为 AI 驱动的副驾驶和自动化工具,同时为 AI 提供必要的防护措施,使其能够在预定的范围内安全地采取行动。 危机之后会怎样?Titan 将数据、逻辑和行动整合到其本体中,从而能够开展强大的以决策为中心的学习。在应对物资短缺的特定解决方案中,人机协作也揭示了可推广的工作流程,Titan 希望将这些工作流程记录下来,并在未来加以利用。每个数据元素、逻辑资产和评估的行动都会被记录在端到端的决策谱系中——这为优化 AI 的性能提供了丰富的上下文信息。本体中数千名用户做出的汇总决策可以安全地用作模型微调的训练数据,并可以提炼成在 LLM 提示过程中调用的目标原则。以往隐藏在工作流程缝隙中的“经验知识”可以通过 AI 得到发掘,从而改进 AI 的应用。 Ontology会捕获每个数据元素、逻辑资产和操作在决策过程中的更新——这为随着时间的推移优化 AI 的性能提供了丰富的上下文信息。 小结 最终,Ontology使每个组织都能将人工智能直接融入其核心运营,并精确控制在当前一线环境中如何以及何时使用人工智能驱动的推荐、增强和自动化功能。这之所以成为可能,是因为Ontology以决策为中心,而不仅仅是以数据为中心;它将决策的组成要素——数据、逻辑和行动——整合到一个单一的软件系统中。新数据可以快速集成到高保真语义表示中;新的算法和业务逻辑可以无缝地呈现给人类用户和人工智能用户;通过与所有运营系统的实时连接,可以实现强大的行动集成。每个组织的Ontology都能实时反映各个团队不断变化的情况、目标和决策,从而确保人工智能始终扎根于企业的实际情况之中。 本文仅对Ontology底层以决策为中心的架构、系统原生仿真和场景构建功能、Ontology SDK提供的可扩展性、将商业和开源生成式AI模型连接到安全的数据、逻辑和操作子集的各种方法,以及在整个企业范围内扩展人机协作的方法进行了初步介绍。 来源(公众号):数据驱动智能
2026-03-02 16:18 201
近日,《苏州工业园区关于加快高质量数据集建设促进数据要素价值释放的若干措施》(简称《措施》)正式发布,成为全省首个高质量数据集专项政策。 《措施》聚焦数据资源“聚、通、用”全链条,旨在打造全国领先、具有区域影响力的高质量数据集建设和开发利用高地。 苏州工业园区此次出台的《措施》,立足系统性思维,推动实现数据要素 “建设汇聚—高效流通—场景繁荣” 的价值释放闭环。接下来,园区将秉持开放理念、做好系统谋划、落实务实举措,持续推动政策落地见效,稳步推进高质量数据集建设和开发利用工作,努力打造具有区域影响力的发展标杆。 来源(网站):园区大数据管理中心
2026-02-28 15:35 111
我们常听到“人工智能应该以透明的方式运行才能赢得信任”。但就人类信任而言,这真的就足够了吗?仅仅解释人工智能代理的内部运作机制或推理过程就能保证用户留存吗?如果产品的目标用户群体不仅限于早期用户,我们就需要更深入地研究:人工智能的心理模型。 虽然可解释的人工智能方法,包括内部运作机制、推理过程和决策树的透明度,在建立用户信任方面发挥着重要作用,但它们并不能保证用户信任。理解一项功能的工作原理并不等同于认同它,对吗? 我当时正在开发一款生成式引擎优化工具,旨在帮助营销团队了解人工智能如何描述他们的品牌。在开发过程中,我发现了一个不匹配之处:我们展示的是他们的内容策略如何涵盖各种提示,而他们却试图找到内容策略如何涵盖提示中包含的“关键词或主题”。我们讨论的是“提示”,而营销人员的思维模式是“关键词”。这就是我们意识到应该突出关键词的原因。同样的数据,不同的思维模式。 问题在于?你的 AI 功能或许能够完美地执行任务并做出解释,但如果流程、标准或方法与人类用户无关,那么协作就会中断,随之而来的是,该功能最终会束之高阁。 “‘解释性’这一属性并非陈述的属性,而是一种互动。何为解释性取决于学习者/用户的需求、用户已有的知识,尤其是用户的目标。” Robert R. Hoffman 即使是功能最完善、最精准的AI功能,即便提供了所有必要的解释说明模型的工作原理、决策过程和推荐方法,最终也可能沦为产品中“无关紧要”的功能。原因往往比我们想象的要简单得多:用户已经习惯了特定的任务处理方式!如果AI替代方案没有考虑到这些习惯、想法和信念,那么即使设计精良的新用户引导流程再好,也无法说服用户改变他们的工作方式。 因此,在回答“我们如何向用户解释这项人工智能功能?”这个问题之前,我们应该先问一个更根本的问题: “这项新功能与用户现有的心理模型有何关联?” 设计师回答这个问题时常用的指导原则是“在用户所在的地方满足他们的需求”,例如,如果用户在错误的地方寻找某个东西,就把它移到他们正在寻找的地方。然而,随着新的AI用户体验模式层出不穷,并且大多朝着基于意图的对话式交互或生成式用户界面发展,问题不再是“在哪里”,而是“如何做”。 在人际协作方面,研究早已证明,共享的思维模式是高效协作的基础。团队拥有共享的思维模式能够促进创造力,因为它强化了与工作相关的冲突和创新之间的积极关系,尤其是在团队就其价值观、工作方式和规范达成共识的情况下。 共享心智模型会影响决策过程,因为它基于对其他团队成员的行为或观点的理解。因此,它们对于理解团队的活动、动态和功能至关重要。 鉴于人工智能将以如此广泛的深度渗透到我们生活的方方面面,假设人类与人工智能之间共享的思维模型对于实现有意义、高效且值得信赖的人机协作也至关重要,这并非异想天开。事实上,一些研究人员已经验证了这一假设,结果不出所料,它是正确的! 有效的人机协作需要具备形成相互心理模型的能力,这有助于人工智能系统和人类用户理解如何相互补充。 我想分 4 个步骤来解释这个问题,所有这些都围绕着“共享的思维模型”展开。 技术舒适区和任务风险 人类对任务或协作的心理模型 人类对人工智能特征的心理模型 人类认知能力与人工智能速度的比较 1. 技术舒适区和任务风险 想象一下,一位资深的公共服务人员,精通复杂的数字仪表盘操作,突然接触到工具上的一个新功能:一个人工智能助手,只需和它聊天就能帮你完成工作。“聊天”——这让她想起自己19岁的儿子和朋友们计划周末聚会——与专业工作完全不搭边。因此,她尽可能地忽略了这个功能。或许尝试过几次,但最终还是觉得“这不适合她”! 无论身处哪个行业或领域,人们日常使用的技术水平都各不相同。这种技术使用行为不仅会影响用户如何定义技术在其个人或职业生活中的角色,还会影响他们对新技术的接受程度和信任度。如果一款产品只面向早期用户,而没有考虑到其他用户的舒适度,那么要说服大多数人信任它就相当困难了,不是吗? 在这种情况下,一个解决办法是寻找“外包安全候选人”。我们每个人都有一些自己讨厌做、不习惯做或者觉得无聊的任务或活动,因此我们很乐意将它们外包出去。这些任务非常适合用人工智能来处理。 举个例子。假设你正在为一位起重机操作员设计系统,他最重要的任务是在搬运重物时确保货物和工作场所的安全。操作员对人工智能助手独立搬运重型昂贵货物的信任度,远低于他对人工智能推荐的最短路线的信任度。这表明,在开发自动驾驶功能之前,应该先着手开发路线推荐功能。 2. 人类对任务或协作设置的心理模型 我们每个人对事情的完成方式都有自己的看法,从寻找咖啡馆或给电子邮件贴标签这样的小事,到工作中的具体任务,莫不如此。现在,想象一下,如果你把这项任务外包给一个遵循完全不同逻辑的人工智能,你会不会感到困惑,甚至心存疑虑? 为了解决这个问题,我们需要首先思考用户目前是如何解决我们将要用人工智能解决的问题的。他们目前的解决方案应该成为我们设计新方案的指南针。 设计师通常最好顺应人们现有的思维模式,而不是试图强迫他们接受新的模式。以拟物化设计为例,这种设计方法借鉴了物理世界的线索,帮助用户掌握新的交互方式。通过利用人们已经熟悉的事物,设计师可以使新的、不熟悉的体验更容易理解(也更少令人沮丧)。 3. 人类对人工智能特征的心理模型 在设计新的可用性模式时,真正的挑战在于:我们如何确保用户对功能的理解是有效的?这需要综合考虑预期管理、清晰的价值沟通和可解释性。 棘手之处在于,对于像 ChatGPT 这样的通用型对话式人工智能,用户很难分辨代理的功能范围。几乎不可能仅凭外观就准确判断对话式人工智能的功能。因此,各种提示信息逐渐消失,最终只能由用户自行摸索使用流程或功能。 Max Stepanov 在他的文章中探讨了用户围绕对话式人工智能功能形成的一些常见心理模型,例如“魔法盒子”或“师生”心理模型。观察用户与人工智能功能交互时的行为、进行“边想边说”的可用性测试以及评估用户对价值理解的准确率,都是我们更好地理解用户围绕人工智能产品形成的心理模型的方法。 4. 人类认知能力与人工智能速度的比较 随着科技发展速度的加快,我们的注意力持续时间却越来越短。注意力持续时间的缩短,也导致我们难以抽出时间进行需要高度认知能力的决策和判断,最终迷失在人工智能推荐和输出的海洋中,忘记了自己的决定和行动。 我用 Lovable 重建作品集的时候就遇到过这种情况。迭代速度太快,以至于做到一半的时候,我才意识到自己忘记了当初为什么做了某些修改或决定。是的,我不得不从头开始,这次要系统地构建,而不是像以前那样只是迭代。 研究表明,在充分了解用户局限性的基础上设计人工智能,往往比简单地向用户解释人工智能自身的局限性更为有效,尤其是在任务速度至关重要的情况下。换句话说,与其向用户提供额外的解释,不如构建一个能够适应人们认知状态的人工智能系统。 尼尔森是这样说的:“别让我思考得更快。”换句话说,不要强迫用户以机器的速度操作。相反,我们应该衡量并改进产品造成的认知延迟:人们需要多长时间才能注意到变化、弄清楚变化的含义、决定下一步该做什么,以及在被打断后重新接上思路。 Google 设计库的框架是理解如何合理利用用户认知能力的绝佳指南。例如,如果需要学习大量新的 UI 操作(图 B),则应确保主要用例基于用户熟悉的事物。如果产品的行为特别动态(图 C),则应使用大量可识别的模式,以免用户感觉像是在摸索前进。 总结 所以,下次当你想要通过为你的AI功能添加更多解释、工具提示或引导流程来解决信任问题时,请先停下来想一想。问题可能不在于用户不理解功能的工作原理,而在于功能不理解用户的使用习惯、逻辑、节奏和舒适区。可解释性固然重要,但这只是第二步。第一步是目标一致性。因为无论你把门后的东西解释得多么清楚,如果你敲错了门,那就没人会应门! 来源(公众号):数据驱动智能
2026-02-27 19:07 134
近日,《苏州工业园区关于加快高质量数据集建设促进数据要素价值释放的若干措施》(简称《措施》)正式发布,成为全省首个高质量数据集专项政策。《措施》聚焦数据资源“聚、通、用”全链条,旨在打造全国领先、具有区域影响力的高质量数据集建设和开发利用高地。 顶层设计推动数据汇聚构建全链条闭环生态 高质量数据集已成为数智创新的关键资源。自2025年以来,国家、省、市陆续出台相关政策文件,着力推进高质量数据集建设专项行动。园区出台的《措施》,立足区域实际,以强供给、畅流通、促应用、育生态为主线,系统规划高质量数据集发展路径。 根据《措施》,园区将围绕政务与行业双领域协同发力,通过揭榜挂帅、试点示范等机制,推动数据资源从分散建设向系统化汇聚转型,确保数据要素高效赋能经济社会发展。 目标到2028年底,园区将打造100个高质量数据集,汇聚1000个高质量数据集,遴选100个典型示范案例,基本建成全国领先、具有区域影响力的高质量数据建设和开发利用高地,实现高质量数据集规模与应用水平显著提升,形成可复制推广的典型模式,构建数据要素价值释放的完整闭环,加快促进数据要素价值释放。 多措并举强化要素保障提高资源供给与流通效率 依托丰富的数据资源禀赋和多元的应用场景优势,园区数据产业已形成一定集聚优势。目前,园区已有184家企业入选江苏省首批入库培育数据企业名单,占全市30%,涵盖数据资源、数据技术、数据服务、数据应用、数据安全以及数据基础设施六大类别。 此次出台的新政策,通过多元举措打出“组合拳”,着力补齐供给短板,破解数据流通瓶颈,优化要素市场化配置。聚焦资源汇聚,支持政务领域高质量数据集建设,鼓励政企学研协同攻关,激发公共数据开发利用活力;聚焦流通升级,加快行业数据交互平台建设,探索“数据即服务”等新模式,通过示范平台遴选与运营支持,降低数据融合门槛,加速价值共创;聚焦合规保障,推动可信数据空间等基础设施落地,支持数据合规高效流通,确保数据安全与价值协同。 奖励机制加速创新赋能激活应用生态与价值转化 为了让公共数据“跑起来”,要素资源“活起来”,《措施》突出场景牵引、需求导向,聚焦数据资源深度开发、创新应用,根据实效对建设、应用两端实施全过程、全覆盖的奖补激励,打造建设高质量数据集“苗圃”的优质生态。 以应用为牵引,政策鼓励单位采购高质量数据集开发产品服务,对非关联方数据采购给予补贴,推动数据从资源化向资产化转化。围绕示范引领,政策支持申报数据创新典型案例,对入选省级以上示范场景的单位予以奖励,加速数据在垂直领域的落地验证。 此外,政策还鼓励各单位通过标准制定、供需对接、大赛活动等,构建开放包容的创新环境,并对品质型活动给予相应奖励支持,加快吸引全国高质量数据集向园区集聚。 苏州工业园区此次出台的《措施》,立足系统性思维,推动实现数据要素 “建设汇聚—高效流通—场景繁荣” 的价值释放闭环。接下来,园区将秉持开放理念、做好系统谋划、落实务实举措,持续推动政策落地见效,稳步推进高质量数据集建设和开发利用工作,努力打造具有区域影响力的发展标杆。 来源(网站):苏州工业园区管理委员会官网
2026-02-25 18:28 124
技术管理的复杂度正在指数级增长。当我们同时管理着几十个项目、协调着不同时区的团队、应对着不断变化的业务需求时,传统的项目管理方式已经捉襟见肘。据PMI最新发布的《项目管理现状报告》显示,采用自动化工具的IT项目成功率比传统管理方式高出42%,这个数字背后隐藏着什么秘密? IT项目管理的现实困境 让我们先直面一个残酷的现实:约70%的IT项目都会出现延期或预算超支。在我接触的众多企业中,项目经理们普遍面临着三大痛点: 信息孤岛严重。开发团队用Jira跟踪任务,测试团队用TestRail管理用例,运维团队用自己的监控系统,而管理层却只能通过Excel表格获得项目进展。这种割裂的信息流导致决策滞后,问题发现往往为时已晚。 重复性工作占比过高。据Atlassian的调研数据,IT项目经理平均有35%的时间花在状态同步、进度汇报、数据整理等重复性工作上。这些本该用于战略思考和团队协调的宝贵时间,被大量机械性任务消耗。 风险预警机制缺失。传统的周报、月报往往是滞后指标,当问题暴露时,项目可能已经偏离轨道数周。缺乏实时的风险识别和预警机制,让管理者总是处于被动应对状态。 自动化工具的核心价值 自动化工具之所以能够显著提升IT项目管理效率,关键在于它们解决了管理过程中的三个根本性问题: 1. 实时数据整合与可视化 现代自动化工具最大的价值在于打破信息孤岛。以DevOps工具链为例,通过API集成,可以将代码提交、构建状态、测试结果、部署进度等信息实时汇聚到统一的仪表板上。 这种整合带来的效果是立竿见影的。项目经理不再需要逐个询问各团队进展,而是通过一个界面就能掌握项目全貌。更重要的是,这些数据是实时更新的,任何异常都能第一时间被发现。 2. 智能化风险预警 自动化工具的另一个核心优势是基于历史数据和实时指标的智能预警。比如,当代码提交频率突然下降、测试用例通过率持续走低、或者某个关键路径上的任务出现延期时,系统会自动触发预警。 据Microsoft的内部数据显示,使用Azure DevOps的项目团队,风险识别的平均提前量从传统方式的1-2周提升到了3-5天。这个时间差往往决定了项目的成败。 3. 流程标准化与自动执行 自动化工具还能将最佳实践固化为标准流程。代码审查、自动化测试、部署流程等关键环节,都可以通过工具链自动触发和执行。这不仅减少了人为错误,还确保了流程的一致性。 自动化工具的实施策略 基于多年的实践经验,我总结出了一套渐进式的自动化工具实施策略: 第一阶段:核心流程自动化 优先从项目管理的核心流程入手,包括任务分配、进度跟踪、状态同步等。选择一个成熟的项目管理平台(如Jira、Azure DevOps或GitLab),建立标准化的工作流程。 这个阶段的关键是建立数据收集的习惯。所有的任务创建、状态更新、时间记录都要通过工具完成,为后续的数据分析打下基础。 第二阶段:工具链集成 在第一阶段稳定运行后,开始整合开发、测试、部署等环节的工具。通过API或第三方集成平台,将不同工具的数据打通,形成完整的项目视图。 这个阶段要特别注意数据质量。不同工具之间的数据格式、更新频率可能存在差异,需要建立统一的数据标准和同步机制。 第三阶段:智能化分析 当数据积累到一定程度后,可以引入更高级的分析功能。利用机器学习算法分析历史项目数据,识别风险模式,预测项目走势。 一些先进的企业已经开始使用AI驱动的项目管理助手,能够自动识别项目瓶颈、推荐资源调配方案、甚至预测项目成功概率。 常见挑战与应对策略 在推进自动化工具的过程中,我们经常会遇到以下挑战: 团队抗拒是最常见的问题。很多技术人员习惯了现有的工作方式,对新工具存在抵触情绪。解决这个问题的关键是展示价值,而不是强制推行。可以先在小范围试点,让团队亲身体验到效率提升,再逐步推广。 工具选择困难也是一个普遍现象。市面上的项目管理工具数以百计,如何选择合适的工具?我的建议是先明确需求,再评估工具。不要被功能列表迷惑,重点关注工具是否能解决你的核心痛点。 数据安全考虑在企业级应用中尤为重要。选择工具时要充分评估其安全性,包括数据加密、访问控制、审计日志等方面。对于敏感项目,可以考虑私有化部署。 效果评估与持续优化 自动化工具的价值需要通过量化指标来衡量。我建议重点关注以下几个维度: 效率指标:项目交付周期、任务完成率、缺陷修复时间等。这些是最直观的效率体现。 质量指标:代码质量、测试覆盖率、线上故障率等。自动化工具应该在提升效率的同时保证质量。 团队满意度:通过定期调研了解团队对工具的满意度和改进建议。工具最终是为人服务的,团队的反馈至关重要。 值得注意的是,自动化工具的优化是一个持续过程。随着项目复杂度的增加和团队规模的扩大,工具配置也需要相应调整。建议每季度进行一次全面评估,根据实际使用情况优化工具配置。 未来发展趋势 从技术发展趋势来看,AI和机器学习将在项目管理自动化中发挥越来越重要的作用。未来的自动化工具不仅能够收集和展示数据,还能主动分析问题、提出建议、甚至自动执行某些管理决策。 同时,随着远程办公的普及,协作型自动化工具的需求会进一步增长。如何在分布式团队中保持高效协作,将是自动化工具发展的重要方向。 自动化工具正在重新定义IT项目管理的边界。那些能够及早拥抱这一变化的团队,必将在激烈的市场竞争中占据先机。毕竟,在这个快速变化的时代,效率就是竞争力,而自动化工具正是提升效率的最佳途径。 来源(公众号):IT管理知识库
2026-02-24 18:01 157
主数据管理 (MDM) 是组织运营的核心。它为客户、产品、供应商、服务提供商和其他核心实体提供共享定义,从而支持运营、报告和分析。 在实践中,主数据管理 (MDM) 很少能达到预期效果。许多实施方案运行缓慢、高度依赖人工操作,并且严重依赖于少数专家团队。长期保持主数据的准确性需要持续的努力、深入的背景信息以及大量的管理工作。随着数据量的增长和业务变化的加速,这些模型开始失效。 生成式人工智能将改变这种情况。它将上下文、模式识别和自动化引入到以往依赖规则和人工操作的领域。这使得匹配更加智能、数据更加丰富、管理决策更加一致,问题解决速度也更快。主数据管理(MDM)开始从僵化的控制功能转向更具适应性和可扩展性的模式。 本文从实践角度阐述了如何将人工智能应用于当今的主数据管理(MDM)。我们将探讨传统MDM为何需要变革,生成式人工智能的真正价值所在,它如何融入现有的MDM架构,并通过具体案例展示其在实践中的应用。 为什么主数据管理需要演进 多年来,主数据管理 (MDM) 一直是数据驱动型组织的核心能力。但它最初设计的环境已不复存在。数据量更大,数据源更多样化,变化速度也更快。传统的 MDM 难以跟上时代的步伐。 有些挑战反复出现(见图 1): 数据质量与一致性:确保数据的准确性、一致性和可靠性一直是主数据管理 (MDM) 的基石。但在一个必须与更多样化的数据源和更大数据量交互的生态系统中,大规模地维护数据质量变得愈发困难。 手动工作量:数据管理、去重、规则调优和异常处理仍然主要依赖人工。这拖慢了所有工作的速度,并将可扩展性直接与人力挂钩。 可扩展性:随着数据量的增长,许多 MDM 平台难以在保持性能的同时,有效执行治理和完整性。 主数据管理广泛化:主数据的访问权限通常仅限于专家。这限制了协作,并使业务团队与他们赖以生存的数据保持距离。 数据丰富:利用第三方或外部来源丰富主数据可以创造真正的价值,但通常成本高昂、速度缓慢,而且难以大规模实施。 复杂的数据关系:现实世界中的实体之间存在着深层次的联系。客户可能涉及多个账户,产品存在于多个层级结构中,组织也可能跨地域运营。传统的主数据管理 (MDM) 模型难以清晰地表示和维护这些关系。 如果主数据管理(MDM)想要保持其相关性,就必须从根本上解决这些局限性。这正是生成式人工智能(Gen AI)的价值发挥之处。 增强核心 MDM 功能 人工智能时代并不会取代核心主数据管理(MDM)功能,而是通过引入上下文关联、学习和自动化,改变这些功能的执行方式,而目前这些功能主要依赖于人工操作和僵化的逻辑。 Gen AI 可以增强 MDM 的核心功能(如图 2 所示),具体如下: 智能管理。在传统的主数据管理 (MDM) 中,管理队列需要人工审核,管理员逐条检查记录并应用预定义的规则。而 Gen AI 则通过自动对队列进行优先级排序、提出解决方案并解释建议特定操作的原因来辅助这一过程。这减少了人工工作量,缩短了解决周期,同时确保最终决策权仍然掌握在人手中。 基于上下文的标准化。传统的标准化通常依赖于固定的规则、参考表和模式匹配。Gen AI 通过使用大型语言模型和检索增强生成 (RAG) 技术来添加上下文信息。在 RAG 中,模型从可信的内部或外部来源检索信息,并利用这些信息来指导标准化。这使得名称、地址或分类等值能够基于其含义和真实世界的上下文进行规范化,而不仅仅是基于预定义的逻辑。 无需固定阈值的智能匹配。传统匹配依赖于评分模型和阈值,难以应对数据变化和极端情况。Gen AI 利用语言模型进行语义比较,允许基于语义相似性而非精确匹配或数值阈值来评估记录。这提高了匹配准确率,尤其适用于缩写、不完整或不一致的数据。 更智能的生存决策。传统主数据管理 (MDM) 中的生存决策依赖于静态的源排名或属性级规则。Gen AI 引入了上下文评估,根据数据质量信号、使用上下文和佐证信息来判断哪个值最可靠或最合适。这最终会生成更一致、更可靠的黄金记录。 上下文感知数据质量管理。基于规则的数据质量检查侧重于格式和完整性,但往往会忽略语义错误。Gen AI 能够结合上下文评估数据,识别出只有在考虑语义时才会显现的问题,例如不合理的属性组合或错误的分类。这使得我们能够更早地检测到质量问题,而无需编写大量的硬编码规则。 AI在 MDM 的三个核心功能 Gen AI 通过变革数据质量、数据管理和数据管控这三大基础组件,强化了主数据管理 (MDM)。让我们更深入地了解它如何在各个领域产生影响。以下示例说明了 Gen AI 如何在不改变 MDM 基本职责的前提下,改进日常 MDM 执行流程。 1.数据质量和验证 数据质量一直是主数据管理 (MDM) 的一项基础性职责。传统的 MDM 擅长强制执行格式和标记明显的错误,但在需要上下文信息或推断才能解决问题时却力不从心。这往往导致管理员需要进行大量的手动调查工作。 由于缩写、本地命名规则和数据不完整等人为因素,医疗保健数据本身就十分混乱。虽然传统的主数据管理 (MDM) 系统可以标准化数据格式并标记明显的错误,但它难以推断出正确的解决方案,这使得数据管理员不得不进行繁琐的手动调查工作。 以以下医院系统数据为例: 传统主数据管理: 标记记录 A 缺少邮政编码,但无法自动填充,需要手动输入。 它可以根据匹配的名称和地址成功地将记录 A(部门)和记录 B(总医院)关联起来。 然而,系统常常忽略记录 C 与记录 C 是同一实体。电话号码和缩写名称(“圣约翰医院”)的一位数差异足以阻止自动匹配,迫使数据管理员手动调查差异。 传统主数据管理 (MDM) 经常难以理解语义,将缩写名称视为全新的实体,或者错误地合并相关记录。 人工智能辅助主数据管理: Gen AI 的语义逻辑通过分析位置相同的匹配地址(记录 B 和 C),推断并建议为记录 A 填写缺失的邮政编码 62704。 它智能地将记录 A、B 和 C 归为同一实体。 它突出显示了记录 C 的电话号码,将一位数的差异识别为可能的拼写错误,并建议进行更正。 至关重要的是,所有更正和推断都附带可审计的解释说明(例如,“与聚类锚点相差一位”),从而将数据管理员的角色从调查者转变为审核者。事实上,Gen AI 将数据质量从错误检测提升到推断、更正和可解释性层面。 2.核心实体识别和黄金记录创建 实体管理是主数据管理 (MDM) 的核心。其目标是正确识别重复项、理解关联关系并创建可靠的黄金记录。Gen AI 利用自然语言处理 (NLP) 和模式识别技术,改进了身份和关联关系的解析方式,尤其是在名称、结构或分类存在差异的情况下。 假设有三份医疗机构的记录: 传统主数据管理: 由于缩写(“Gen. Hosp.”),记录 D 和 E 最终可能被视为两家不同的医院,而不是同一机构的重复记录,从而导致数据碎片化。 此外,记录 F 显然是一个部门,可能会被错误地合并到医院主记录中,或者完全单独保留,从而扰乱准确的汇总报告。 人工智能辅助主数据管理: Gen AI 执行语义实体解析。它正确识别出记录 D 和 E 尽管缩写不同,但指的是同一家医院,并将它们合并成一条标准化的记录。 然后,它将记录 F 识别为相关的子实体(部门),而不是重复记录。它将记录 F 链接到主医院记录下,从而确保运营汇总和部门特定报告的准确性。 3.管理和治理执行 主数据通常包含敏感信息、受限信息或受规则约束的信息。某些记录仅限内部使用,而其他记录只有在满足特定条件(例如获得同意、符合合同条款或监管要求)的情况下才能共享。由于主数据管理 (MDM) 处于主数据标准化和分发的关键节点,因此它在控制数据流向方面发挥着至关重要的作用。 主数据管理 (MDM) 本身并不决定是否存在用户同意或是否存在适用法规。这些决定通常由隐私系统、同意平台或源应用程序做出。MDM 的作用是在主数据发布或向下游共享时强制执行这些决定。传统的 MDM 只能在信号明确且基于规则的情况下才能做到这一点。Gen AI 通过帮助 MDM 理解上下文来改进这一点,即使信号不完整、隐含或嵌入在文本中,也能强制执行策略。 请考虑以下两个治理挑战: 传统主数据管理: 它可能会错过客户记录中的“内部合作伙伴”等语义线索,或者患者指标数据流中缺少“同意标签”。 因此,不合规的数据可能会向下游流动,造成治理和合规风险。 人工智能辅助主数据管理: Gen AI会根据上下文应用策略。它能够识别客户记录的内部状态,并将其从面向外部的列表中屏蔽。 在满足同意要求之前,它会阻止设备流的导出。 它以通俗易懂的英语向数据管理员解释了问题,并明确了后续步骤,从而使补救措施更快、更一致。 在这个例子中,Gen AI 帮助主数据管理 (MDM) 系统理解何时不应共享数据,即使这些信息隐藏在文本中或结构化字段中缺失。MDM 系统随后会在发布点阻止数据流向下游,而不是让数据继续向下流动。 基于人工智能的MDM用例 在前一节中,我们探讨了Gen AI在主数据管理(MDM)中实现的三大核心功能:提升数据质量、强化匹配和黄金记录创建,以及提高数据管理和治理效率。您可以将这三点视为Gen AI为MDM带来的三种“力量”。它们本身就很有用,但只有将它们应用于团队试图解决的具体问题时,才能真正体现其价值。 这就需要更具体的用例了。下图 3 展示了 11 个基于人工智能的 Gen AI 赋能的 MDM 实际用例。其中一些用例可能与之前的示例类似,而另一些则是全新的。 让我们更详细地了解一下它们: 智能增强。Gen AI 可从网络等可信外部来源查找信息,自动为主数据添加缺失或有用的信息。这减少了人工查找工作,并使记录更加完整。例如,如果客户记录缺少地址,Gen AI 可以自动查找并添加。 业务规则/数据验证。Gen AI 会检查重要数据值在上下文中是否合理,而不仅仅是检查字段是否已填写。例如,它可以标记出主要地址明显不是医疗机构的医疗保健专业人员。 上下文感知标准化和增强。Gen AI 理解不同的词语可以指代相同的事物,并据此进行标准化。例如,它知道“Mike”和“Michael”通常指同一个人。 自动化参考数据管理。Gen AI 将源系统中混乱或不一致的值映射到公司使用的清晰、标准值。这取代了手动查找表,并减少了后续维护工作。例如,它可以将“心脏科”、“心脏病学”和“心脏专科医生”映射到单一的标准专科。 监管合规性监控。Gen AI 通过将主数据与已知列表或条件进行比对,帮助检测其是否违反监管规则。例如,它可以标记因监管限制而不应使用的实体(例如,因为某公司出现在 FDA 的禁入名单上)。 关联关系验证与管理。Gen AI 可以理解实体之间的关联方式。例如,即使之前没有明确存储这种关联关系,它也能识别出诊所属于某个医院网络。 数据异常检测与解决。Gen AI 能够识别与类似记录相比异常或错误的数据值。它不仅可以标记问题,还能提出修复建议。例如,它可以标记一位被列为 92 岁的儿科专家,并建议进行更正。 基于上下文的匹配。Gen AI 通过比较含义而非精确值来判断两条记录是否代表同一个现实世界的实体。即使数据不完整或不一致,这也有助于匹配记录。 基于上下文的生存策略。当记录合并时,Gen AI 会根据可靠性和使用情况来决定应该保留哪些值。这超越了简单的来源优先级规则。例如,它可以保留最近使用和验证过的电话号码,而不仅仅是排名最高的系统中的号码。 自动化元数据整理和编目。Gen AI 可自动描述和标记数据,以便人们了解数据的内容及其用途。例如,它可以将数据集标记为“客户主数据——仅供内部使用”。 自动化管理队列解析。Gen AI 可自行解决简单的数据问题,仅将复杂案例发送给人工处理,从而减少管理员需要手动审核的项目数量。 Gen AI 如何集成到 MDM 中 在前几节中,我们探讨了Gen AI赋能的具体功能及其在主数据管理(MDM)中的应用方式。这些方法本身就能带来价值。在本节中,我们将了解如何将这些功能连接起来,并在整个MDM流程中端到端地应用,从而实现相互促进,发挥最大的整体效益。 如图 4 所示,Gen AI 可以贯穿整个 MDM 生命周期: 数据采集与导入。当数据从源系统到达时,Gen AI 能够及早发现明显问题、补充缺失的上下文信息,并将数值与已知标准进行比对,从而帮助清理数据。这减少了后续的返工,并提高了进入母带制作阶段的数据质量。 主数据管理。在主数据管理的核心步骤中,Gen AI 支持匹配、存续管理和数据管理。它有助于更准确地识别重复项,在决定保留哪些值时提供上下文信息,并通过提出带有解释的清晰操作建议来减少人工队列工作。 数据发布与使用。在共享主数据时,Gen AI 可确保将正确的数据传递给正确的用户。由于质量和治理在数据流的早期阶段就得到了处理,下游系统能够接收到更清晰、更可靠的数据。在某些情况下,这也会改变人们访问主数据的方式。例如,销售代表等用户无需浏览报告或编写查询,只需提出诸如“Acme MedTech 的最新联系方式是什么?”或“芝加哥哪些医院上个季度购买了这款设备?”之类的问题,即可直接从经过验证的黄金记录中提取答案。 图 5 缩小了视图,展示了其技术实现方式。Gen AI 依赖于现有的数据存储、元数据和主数据管理 (MDM) 引擎,并在此基础上添加了智能功能。它利用元数据、参考数据和历史决策来提供更优的建议和检查,而传统的 MDM 组件则继续执行核心流程。 关键在于,Gen AI并非与MDM并行运行的独立系统,而是一个附加层,旨在改进MDM的日常运作,使流程更快、更具可扩展性且更易于操作,同时又不改变MDM本身的基本原理。 从追赶到引领 MDM 的发展 如果我们观察当今市场的发展趋势,就会发现一些规律。大多数组织都在向前发展,但速度和方式各不相同。有些组织采取的是渐进式改进,而只有少数组织采取了更为审慎的措施,从根本上改变了主数据管理(MDM)的运作方式。 许多公司正在以专注且务实的方式应用 Gen AI,而且大多是在现有的 MDM 基础架构之上: Gen AI 实用工具和试点项目。团队会开展小型试点项目,用于数据丰富、验证或管理自动化,以证明其价值并建立信任,然后再进一步扩大规模。 团队中更广泛地采用主数据管理 (MDM)。MDM的功能范围不断扩展,通常与客户关系管理 (CRM)、电子邮件或分析工具等数字渠道相结合。 现代技术基础。各组织正从点对点集成转向 API、模块化服务和微服务,以使 MDM 更易于扩展和重用。 更智能的管理和目录。通过自动化减少人工管理,用更动态、可搜索的数据目录取代静态元数据存储库。 探索数据架构和数据网格。一些组织开始跨域联合主数据,同时保持共享标准和集中治理。 这些步骤很重要。它们提高了效率和灵活性,但通常是对现有移动设备管理 (MDM) 系统进行改进,而不是从根本上改变它们。 那些取得更大飞跃的公司,会将这些理念融入到更有针对性的主数据管理(MDM)设计中: 以人工智能为核心重新设计主数据管理 (MDM)。这些组织并非仅仅在现有工具上添加人工智能功能,而是重新设计 MDM,使人工智能系统能够协调匹配、数据丰富、管理和验证等核心活动,并越来越多地将这些平台作为传统 MDM 解决方案的长期替代方案。 利用人工智能助手和自然语言界面赋能团队。人工智能助手可支持数据验证、血缘关系检查和策略执行等任务。自然语言和对话式界面使业务用户无需深厚的技术知识即可与主数据进行交互。 实现合规性和政策监控自动化。系统会自动监控内部政策和外部法规(例如 个人信息保护法、GDPR 和 HIPAA)的合规情况。这既减少了人工干预,又提高了合规一致性,同时降低了风险。 构建互联互通的数据生态系统。主数据旨在跨更广泛的生态系统运行,连接医疗服务提供者、支付方、制造商和患者。这些连接能够带来生态系统层面的洞察和新的商机。 采用图谱和知识技术。知识图谱用于表示主数据实体之间复杂的关联关系。为了支持互操作性和更丰富的数据交换,我们采用了行业标准,例如医疗保健领域的 IDMP 和 HL7、消费品和零售领域的 GS1、银行和支付领域的 ISO 20022、保险领域的 ACORD 以及供应链和物流领域的 EDIFACT 或 ISO 标准。 小结 主数据管理一直至关重要……但它却鲜少令人感到轻松愉快。其基本要素始终未变:干净的数据、一致的定义和强有力的治理。而人工智能时代改变的是主数据管理的体验。 对于大部分主数据管理 (MDM) 工作而言,Gen AI 可以帮助更高效地完成相同的任务。数据质量、匹配和管理依然存在,但速度更快、自动化程度更高,并且减少了对无休止的人工审核的依赖。团队可以将更多时间用于解决显而易见的问题,从而专注于更有价值的决策。 但生成式人工智能(Gen AI)也提升了主数据管理(MDM)的优势。它为决策提供背景信息,使复杂数据更易于理解,并通过自然语言和更简单的交互方式改变人们使用主数据的方式。当MDM变得更快捷、更易用、更直观时,它不再像是一个控制功能,而更像是一种人们真正想要使用的能力。这种体验的转变正是真正令人兴奋的地方所在。 来源(公众号):数据驱动智能
2026-02-11 18:09 170
热门文章