近日,《苏州工业园区关于加快高质量数据集建设促进数据要素价值释放的若干措施》(简称《措施》)正式发布,成为全省首个高质量数据集专项政策。 《措施》聚焦数据资源“聚、通、用”全链条,旨在打造全国领先、具有区域影响力的高质量数据集建设和开发利用高地。 苏州工业园区此次出台的《措施》,立足系统性思维,推动实现数据要素 “建设汇聚—高效流通—场景繁荣” 的价值释放闭环。接下来,园区将秉持开放理念、做好系统谋划、落实务实举措,持续推动政策落地见效,稳步推进高质量数据集建设和开发利用工作,努力打造具有区域影响力的发展标杆。 来源(网站):园区大数据管理中心
2026-02-28 15:35 4
我们常听到“人工智能应该以透明的方式运行才能赢得信任”。但就人类信任而言,这真的就足够了吗?仅仅解释人工智能代理的内部运作机制或推理过程就能保证用户留存吗?如果产品的目标用户群体不仅限于早期用户,我们就需要更深入地研究:人工智能的心理模型。 虽然可解释的人工智能方法,包括内部运作机制、推理过程和决策树的透明度,在建立用户信任方面发挥着重要作用,但它们并不能保证用户信任。理解一项功能的工作原理并不等同于认同它,对吗? 我当时正在开发一款生成式引擎优化工具,旨在帮助营销团队了解人工智能如何描述他们的品牌。在开发过程中,我发现了一个不匹配之处:我们展示的是他们的内容策略如何涵盖各种提示,而他们却试图找到内容策略如何涵盖提示中包含的“关键词或主题”。我们讨论的是“提示”,而营销人员的思维模式是“关键词”。这就是我们意识到应该突出关键词的原因。同样的数据,不同的思维模式。 问题在于?你的 AI 功能或许能够完美地执行任务并做出解释,但如果流程、标准或方法与人类用户无关,那么协作就会中断,随之而来的是,该功能最终会束之高阁。 “‘解释性’这一属性并非陈述的属性,而是一种互动。何为解释性取决于学习者/用户的需求、用户已有的知识,尤其是用户的目标。” Robert R. Hoffman 即使是功能最完善、最精准的AI功能,即便提供了所有必要的解释说明模型的工作原理、决策过程和推荐方法,最终也可能沦为产品中“无关紧要”的功能。原因往往比我们想象的要简单得多:用户已经习惯了特定的任务处理方式!如果AI替代方案没有考虑到这些习惯、想法和信念,那么即使设计精良的新用户引导流程再好,也无法说服用户改变他们的工作方式。 因此,在回答“我们如何向用户解释这项人工智能功能?”这个问题之前,我们应该先问一个更根本的问题: “这项新功能与用户现有的心理模型有何关联?” 设计师回答这个问题时常用的指导原则是“在用户所在的地方满足他们的需求”,例如,如果用户在错误的地方寻找某个东西,就把它移到他们正在寻找的地方。然而,随着新的AI用户体验模式层出不穷,并且大多朝着基于意图的对话式交互或生成式用户界面发展,问题不再是“在哪里”,而是“如何做”。 在人际协作方面,研究早已证明,共享的思维模式是高效协作的基础。团队拥有共享的思维模式能够促进创造力,因为它强化了与工作相关的冲突和创新之间的积极关系,尤其是在团队就其价值观、工作方式和规范达成共识的情况下。 共享心智模型会影响决策过程,因为它基于对其他团队成员的行为或观点的理解。因此,它们对于理解团队的活动、动态和功能至关重要。 鉴于人工智能将以如此广泛的深度渗透到我们生活的方方面面,假设人类与人工智能之间共享的思维模型对于实现有意义、高效且值得信赖的人机协作也至关重要,这并非异想天开。事实上,一些研究人员已经验证了这一假设,结果不出所料,它是正确的! 有效的人机协作需要具备形成相互心理模型的能力,这有助于人工智能系统和人类用户理解如何相互补充。 我想分 4 个步骤来解释这个问题,所有这些都围绕着“共享的思维模型”展开。 技术舒适区和任务风险 人类对任务或协作的心理模型 人类对人工智能特征的心理模型 人类认知能力与人工智能速度的比较 1. 技术舒适区和任务风险 想象一下,一位资深的公共服务人员,精通复杂的数字仪表盘操作,突然接触到工具上的一个新功能:一个人工智能助手,只需和它聊天就能帮你完成工作。“聊天”——这让她想起自己19岁的儿子和朋友们计划周末聚会——与专业工作完全不搭边。因此,她尽可能地忽略了这个功能。或许尝试过几次,但最终还是觉得“这不适合她”! 无论身处哪个行业或领域,人们日常使用的技术水平都各不相同。这种技术使用行为不仅会影响用户如何定义技术在其个人或职业生活中的角色,还会影响他们对新技术的接受程度和信任度。如果一款产品只面向早期用户,而没有考虑到其他用户的舒适度,那么要说服大多数人信任它就相当困难了,不是吗? 在这种情况下,一个解决办法是寻找“外包安全候选人”。我们每个人都有一些自己讨厌做、不习惯做或者觉得无聊的任务或活动,因此我们很乐意将它们外包出去。这些任务非常适合用人工智能来处理。 举个例子。假设你正在为一位起重机操作员设计系统,他最重要的任务是在搬运重物时确保货物和工作场所的安全。操作员对人工智能助手独立搬运重型昂贵货物的信任度,远低于他对人工智能推荐的最短路线的信任度。这表明,在开发自动驾驶功能之前,应该先着手开发路线推荐功能。 2. 人类对任务或协作设置的心理模型 我们每个人对事情的完成方式都有自己的看法,从寻找咖啡馆或给电子邮件贴标签这样的小事,到工作中的具体任务,莫不如此。现在,想象一下,如果你把这项任务外包给一个遵循完全不同逻辑的人工智能,你会不会感到困惑,甚至心存疑虑? 为了解决这个问题,我们需要首先思考用户目前是如何解决我们将要用人工智能解决的问题的。他们目前的解决方案应该成为我们设计新方案的指南针。 设计师通常最好顺应人们现有的思维模式,而不是试图强迫他们接受新的模式。以拟物化设计为例,这种设计方法借鉴了物理世界的线索,帮助用户掌握新的交互方式。通过利用人们已经熟悉的事物,设计师可以使新的、不熟悉的体验更容易理解(也更少令人沮丧)。 3. 人类对人工智能特征的心理模型 在设计新的可用性模式时,真正的挑战在于:我们如何确保用户对功能的理解是有效的?这需要综合考虑预期管理、清晰的价值沟通和可解释性。 棘手之处在于,对于像 ChatGPT 这样的通用型对话式人工智能,用户很难分辨代理的功能范围。几乎不可能仅凭外观就准确判断对话式人工智能的功能。因此,各种提示信息逐渐消失,最终只能由用户自行摸索使用流程或功能。 Max Stepanov 在他的文章中探讨了用户围绕对话式人工智能功能形成的一些常见心理模型,例如“魔法盒子”或“师生”心理模型。观察用户与人工智能功能交互时的行为、进行“边想边说”的可用性测试以及评估用户对价值理解的准确率,都是我们更好地理解用户围绕人工智能产品形成的心理模型的方法。 4. 人类认知能力与人工智能速度的比较 随着科技发展速度的加快,我们的注意力持续时间却越来越短。注意力持续时间的缩短,也导致我们难以抽出时间进行需要高度认知能力的决策和判断,最终迷失在人工智能推荐和输出的海洋中,忘记了自己的决定和行动。 我用 Lovable 重建作品集的时候就遇到过这种情况。迭代速度太快,以至于做到一半的时候,我才意识到自己忘记了当初为什么做了某些修改或决定。是的,我不得不从头开始,这次要系统地构建,而不是像以前那样只是迭代。 研究表明,在充分了解用户局限性的基础上设计人工智能,往往比简单地向用户解释人工智能自身的局限性更为有效,尤其是在任务速度至关重要的情况下。换句话说,与其向用户提供额外的解释,不如构建一个能够适应人们认知状态的人工智能系统。 尼尔森是这样说的:“别让我思考得更快。”换句话说,不要强迫用户以机器的速度操作。相反,我们应该衡量并改进产品造成的认知延迟:人们需要多长时间才能注意到变化、弄清楚变化的含义、决定下一步该做什么,以及在被打断后重新接上思路。 Google 设计库的框架是理解如何合理利用用户认知能力的绝佳指南。例如,如果需要学习大量新的 UI 操作(图 B),则应确保主要用例基于用户熟悉的事物。如果产品的行为特别动态(图 C),则应使用大量可识别的模式,以免用户感觉像是在摸索前进。 总结 所以,下次当你想要通过为你的AI功能添加更多解释、工具提示或引导流程来解决信任问题时,请先停下来想一想。问题可能不在于用户不理解功能的工作原理,而在于功能不理解用户的使用习惯、逻辑、节奏和舒适区。可解释性固然重要,但这只是第二步。第一步是目标一致性。因为无论你把门后的东西解释得多么清楚,如果你敲错了门,那就没人会应门! 来源(公众号):数据驱动智能
2026-02-27 19:07 14
近日,《苏州工业园区关于加快高质量数据集建设促进数据要素价值释放的若干措施》(简称《措施》)正式发布,成为全省首个高质量数据集专项政策。《措施》聚焦数据资源“聚、通、用”全链条,旨在打造全国领先、具有区域影响力的高质量数据集建设和开发利用高地。 顶层设计推动数据汇聚构建全链条闭环生态 高质量数据集已成为数智创新的关键资源。自2025年以来,国家、省、市陆续出台相关政策文件,着力推进高质量数据集建设专项行动。园区出台的《措施》,立足区域实际,以强供给、畅流通、促应用、育生态为主线,系统规划高质量数据集发展路径。 根据《措施》,园区将围绕政务与行业双领域协同发力,通过揭榜挂帅、试点示范等机制,推动数据资源从分散建设向系统化汇聚转型,确保数据要素高效赋能经济社会发展。 目标到2028年底,园区将打造100个高质量数据集,汇聚1000个高质量数据集,遴选100个典型示范案例,基本建成全国领先、具有区域影响力的高质量数据建设和开发利用高地,实现高质量数据集规模与应用水平显著提升,形成可复制推广的典型模式,构建数据要素价值释放的完整闭环,加快促进数据要素价值释放。 多措并举强化要素保障提高资源供给与流通效率 依托丰富的数据资源禀赋和多元的应用场景优势,园区数据产业已形成一定集聚优势。目前,园区已有184家企业入选江苏省首批入库培育数据企业名单,占全市30%,涵盖数据资源、数据技术、数据服务、数据应用、数据安全以及数据基础设施六大类别。 此次出台的新政策,通过多元举措打出“组合拳”,着力补齐供给短板,破解数据流通瓶颈,优化要素市场化配置。聚焦资源汇聚,支持政务领域高质量数据集建设,鼓励政企学研协同攻关,激发公共数据开发利用活力;聚焦流通升级,加快行业数据交互平台建设,探索“数据即服务”等新模式,通过示范平台遴选与运营支持,降低数据融合门槛,加速价值共创;聚焦合规保障,推动可信数据空间等基础设施落地,支持数据合规高效流通,确保数据安全与价值协同。 奖励机制加速创新赋能激活应用生态与价值转化 为了让公共数据“跑起来”,要素资源“活起来”,《措施》突出场景牵引、需求导向,聚焦数据资源深度开发、创新应用,根据实效对建设、应用两端实施全过程、全覆盖的奖补激励,打造建设高质量数据集“苗圃”的优质生态。 以应用为牵引,政策鼓励单位采购高质量数据集开发产品服务,对非关联方数据采购给予补贴,推动数据从资源化向资产化转化。围绕示范引领,政策支持申报数据创新典型案例,对入选省级以上示范场景的单位予以奖励,加速数据在垂直领域的落地验证。 此外,政策还鼓励各单位通过标准制定、供需对接、大赛活动等,构建开放包容的创新环境,并对品质型活动给予相应奖励支持,加快吸引全国高质量数据集向园区集聚。 苏州工业园区此次出台的《措施》,立足系统性思维,推动实现数据要素 “建设汇聚—高效流通—场景繁荣” 的价值释放闭环。接下来,园区将秉持开放理念、做好系统谋划、落实务实举措,持续推动政策落地见效,稳步推进高质量数据集建设和开发利用工作,努力打造具有区域影响力的发展标杆。 来源(网站):苏州工业园区管理委员会官网
2026-02-25 18:28 35
技术管理的复杂度正在指数级增长。当我们同时管理着几十个项目、协调着不同时区的团队、应对着不断变化的业务需求时,传统的项目管理方式已经捉襟见肘。据PMI最新发布的《项目管理现状报告》显示,采用自动化工具的IT项目成功率比传统管理方式高出42%,这个数字背后隐藏着什么秘密? IT项目管理的现实困境 让我们先直面一个残酷的现实:约70%的IT项目都会出现延期或预算超支。在我接触的众多企业中,项目经理们普遍面临着三大痛点: 信息孤岛严重。开发团队用Jira跟踪任务,测试团队用TestRail管理用例,运维团队用自己的监控系统,而管理层却只能通过Excel表格获得项目进展。这种割裂的信息流导致决策滞后,问题发现往往为时已晚。 重复性工作占比过高。据Atlassian的调研数据,IT项目经理平均有35%的时间花在状态同步、进度汇报、数据整理等重复性工作上。这些本该用于战略思考和团队协调的宝贵时间,被大量机械性任务消耗。 风险预警机制缺失。传统的周报、月报往往是滞后指标,当问题暴露时,项目可能已经偏离轨道数周。缺乏实时的风险识别和预警机制,让管理者总是处于被动应对状态。 自动化工具的核心价值 自动化工具之所以能够显著提升IT项目管理效率,关键在于它们解决了管理过程中的三个根本性问题: 1. 实时数据整合与可视化 现代自动化工具最大的价值在于打破信息孤岛。以DevOps工具链为例,通过API集成,可以将代码提交、构建状态、测试结果、部署进度等信息实时汇聚到统一的仪表板上。 这种整合带来的效果是立竿见影的。项目经理不再需要逐个询问各团队进展,而是通过一个界面就能掌握项目全貌。更重要的是,这些数据是实时更新的,任何异常都能第一时间被发现。 2. 智能化风险预警 自动化工具的另一个核心优势是基于历史数据和实时指标的智能预警。比如,当代码提交频率突然下降、测试用例通过率持续走低、或者某个关键路径上的任务出现延期时,系统会自动触发预警。 据Microsoft的内部数据显示,使用Azure DevOps的项目团队,风险识别的平均提前量从传统方式的1-2周提升到了3-5天。这个时间差往往决定了项目的成败。 3. 流程标准化与自动执行 自动化工具还能将最佳实践固化为标准流程。代码审查、自动化测试、部署流程等关键环节,都可以通过工具链自动触发和执行。这不仅减少了人为错误,还确保了流程的一致性。 自动化工具的实施策略 基于多年的实践经验,我总结出了一套渐进式的自动化工具实施策略: 第一阶段:核心流程自动化 优先从项目管理的核心流程入手,包括任务分配、进度跟踪、状态同步等。选择一个成熟的项目管理平台(如Jira、Azure DevOps或GitLab),建立标准化的工作流程。 这个阶段的关键是建立数据收集的习惯。所有的任务创建、状态更新、时间记录都要通过工具完成,为后续的数据分析打下基础。 第二阶段:工具链集成 在第一阶段稳定运行后,开始整合开发、测试、部署等环节的工具。通过API或第三方集成平台,将不同工具的数据打通,形成完整的项目视图。 这个阶段要特别注意数据质量。不同工具之间的数据格式、更新频率可能存在差异,需要建立统一的数据标准和同步机制。 第三阶段:智能化分析 当数据积累到一定程度后,可以引入更高级的分析功能。利用机器学习算法分析历史项目数据,识别风险模式,预测项目走势。 一些先进的企业已经开始使用AI驱动的项目管理助手,能够自动识别项目瓶颈、推荐资源调配方案、甚至预测项目成功概率。 常见挑战与应对策略 在推进自动化工具的过程中,我们经常会遇到以下挑战: 团队抗拒是最常见的问题。很多技术人员习惯了现有的工作方式,对新工具存在抵触情绪。解决这个问题的关键是展示价值,而不是强制推行。可以先在小范围试点,让团队亲身体验到效率提升,再逐步推广。 工具选择困难也是一个普遍现象。市面上的项目管理工具数以百计,如何选择合适的工具?我的建议是先明确需求,再评估工具。不要被功能列表迷惑,重点关注工具是否能解决你的核心痛点。 数据安全考虑在企业级应用中尤为重要。选择工具时要充分评估其安全性,包括数据加密、访问控制、审计日志等方面。对于敏感项目,可以考虑私有化部署。 效果评估与持续优化 自动化工具的价值需要通过量化指标来衡量。我建议重点关注以下几个维度: 效率指标:项目交付周期、任务完成率、缺陷修复时间等。这些是最直观的效率体现。 质量指标:代码质量、测试覆盖率、线上故障率等。自动化工具应该在提升效率的同时保证质量。 团队满意度:通过定期调研了解团队对工具的满意度和改进建议。工具最终是为人服务的,团队的反馈至关重要。 值得注意的是,自动化工具的优化是一个持续过程。随着项目复杂度的增加和团队规模的扩大,工具配置也需要相应调整。建议每季度进行一次全面评估,根据实际使用情况优化工具配置。 未来发展趋势 从技术发展趋势来看,AI和机器学习将在项目管理自动化中发挥越来越重要的作用。未来的自动化工具不仅能够收集和展示数据,还能主动分析问题、提出建议、甚至自动执行某些管理决策。 同时,随着远程办公的普及,协作型自动化工具的需求会进一步增长。如何在分布式团队中保持高效协作,将是自动化工具发展的重要方向。 自动化工具正在重新定义IT项目管理的边界。那些能够及早拥抱这一变化的团队,必将在激烈的市场竞争中占据先机。毕竟,在这个快速变化的时代,效率就是竞争力,而自动化工具正是提升效率的最佳途径。 来源(公众号):IT管理知识库
2026-02-24 18:01 36
主数据管理 (MDM) 是组织运营的核心。它为客户、产品、供应商、服务提供商和其他核心实体提供共享定义,从而支持运营、报告和分析。 在实践中,主数据管理 (MDM) 很少能达到预期效果。许多实施方案运行缓慢、高度依赖人工操作,并且严重依赖于少数专家团队。长期保持主数据的准确性需要持续的努力、深入的背景信息以及大量的管理工作。随着数据量的增长和业务变化的加速,这些模型开始失效。 生成式人工智能将改变这种情况。它将上下文、模式识别和自动化引入到以往依赖规则和人工操作的领域。这使得匹配更加智能、数据更加丰富、管理决策更加一致,问题解决速度也更快。主数据管理(MDM)开始从僵化的控制功能转向更具适应性和可扩展性的模式。 本文从实践角度阐述了如何将人工智能应用于当今的主数据管理(MDM)。我们将探讨传统MDM为何需要变革,生成式人工智能的真正价值所在,它如何融入现有的MDM架构,并通过具体案例展示其在实践中的应用。 为什么主数据管理需要演进 多年来,主数据管理 (MDM) 一直是数据驱动型组织的核心能力。但它最初设计的环境已不复存在。数据量更大,数据源更多样化,变化速度也更快。传统的 MDM 难以跟上时代的步伐。 有些挑战反复出现(见图 1): 数据质量与一致性:确保数据的准确性、一致性和可靠性一直是主数据管理 (MDM) 的基石。但在一个必须与更多样化的数据源和更大数据量交互的生态系统中,大规模地维护数据质量变得愈发困难。 手动工作量:数据管理、去重、规则调优和异常处理仍然主要依赖人工。这拖慢了所有工作的速度,并将可扩展性直接与人力挂钩。 可扩展性:随着数据量的增长,许多 MDM 平台难以在保持性能的同时,有效执行治理和完整性。 主数据管理广泛化:主数据的访问权限通常仅限于专家。这限制了协作,并使业务团队与他们赖以生存的数据保持距离。 数据丰富:利用第三方或外部来源丰富主数据可以创造真正的价值,但通常成本高昂、速度缓慢,而且难以大规模实施。 复杂的数据关系:现实世界中的实体之间存在着深层次的联系。客户可能涉及多个账户,产品存在于多个层级结构中,组织也可能跨地域运营。传统的主数据管理 (MDM) 模型难以清晰地表示和维护这些关系。 如果主数据管理(MDM)想要保持其相关性,就必须从根本上解决这些局限性。这正是生成式人工智能(Gen AI)的价值发挥之处。 增强核心 MDM 功能 人工智能时代并不会取代核心主数据管理(MDM)功能,而是通过引入上下文关联、学习和自动化,改变这些功能的执行方式,而目前这些功能主要依赖于人工操作和僵化的逻辑。 Gen AI 可以增强 MDM 的核心功能(如图 2 所示),具体如下: 智能管理。在传统的主数据管理 (MDM) 中,管理队列需要人工审核,管理员逐条检查记录并应用预定义的规则。而 Gen AI 则通过自动对队列进行优先级排序、提出解决方案并解释建议特定操作的原因来辅助这一过程。这减少了人工工作量,缩短了解决周期,同时确保最终决策权仍然掌握在人手中。 基于上下文的标准化。传统的标准化通常依赖于固定的规则、参考表和模式匹配。Gen AI 通过使用大型语言模型和检索增强生成 (RAG) 技术来添加上下文信息。在 RAG 中,模型从可信的内部或外部来源检索信息,并利用这些信息来指导标准化。这使得名称、地址或分类等值能够基于其含义和真实世界的上下文进行规范化,而不仅仅是基于预定义的逻辑。 无需固定阈值的智能匹配。传统匹配依赖于评分模型和阈值,难以应对数据变化和极端情况。Gen AI 利用语言模型进行语义比较,允许基于语义相似性而非精确匹配或数值阈值来评估记录。这提高了匹配准确率,尤其适用于缩写、不完整或不一致的数据。 更智能的生存决策。传统主数据管理 (MDM) 中的生存决策依赖于静态的源排名或属性级规则。Gen AI 引入了上下文评估,根据数据质量信号、使用上下文和佐证信息来判断哪个值最可靠或最合适。这最终会生成更一致、更可靠的黄金记录。 上下文感知数据质量管理。基于规则的数据质量检查侧重于格式和完整性,但往往会忽略语义错误。Gen AI 能够结合上下文评估数据,识别出只有在考虑语义时才会显现的问题,例如不合理的属性组合或错误的分类。这使得我们能够更早地检测到质量问题,而无需编写大量的硬编码规则。 AI在 MDM 的三个核心功能 Gen AI 通过变革数据质量、数据管理和数据管控这三大基础组件,强化了主数据管理 (MDM)。让我们更深入地了解它如何在各个领域产生影响。以下示例说明了 Gen AI 如何在不改变 MDM 基本职责的前提下,改进日常 MDM 执行流程。 1.数据质量和验证 数据质量一直是主数据管理 (MDM) 的一项基础性职责。传统的 MDM 擅长强制执行格式和标记明显的错误,但在需要上下文信息或推断才能解决问题时却力不从心。这往往导致管理员需要进行大量的手动调查工作。 由于缩写、本地命名规则和数据不完整等人为因素,医疗保健数据本身就十分混乱。虽然传统的主数据管理 (MDM) 系统可以标准化数据格式并标记明显的错误,但它难以推断出正确的解决方案,这使得数据管理员不得不进行繁琐的手动调查工作。 以以下医院系统数据为例: 传统主数据管理: 标记记录 A 缺少邮政编码,但无法自动填充,需要手动输入。 它可以根据匹配的名称和地址成功地将记录 A(部门)和记录 B(总医院)关联起来。 然而,系统常常忽略记录 C 与记录 C 是同一实体。电话号码和缩写名称(“圣约翰医院”)的一位数差异足以阻止自动匹配,迫使数据管理员手动调查差异。 传统主数据管理 (MDM) 经常难以理解语义,将缩写名称视为全新的实体,或者错误地合并相关记录。 人工智能辅助主数据管理: Gen AI 的语义逻辑通过分析位置相同的匹配地址(记录 B 和 C),推断并建议为记录 A 填写缺失的邮政编码 62704。 它智能地将记录 A、B 和 C 归为同一实体。 它突出显示了记录 C 的电话号码,将一位数的差异识别为可能的拼写错误,并建议进行更正。 至关重要的是,所有更正和推断都附带可审计的解释说明(例如,“与聚类锚点相差一位”),从而将数据管理员的角色从调查者转变为审核者。事实上,Gen AI 将数据质量从错误检测提升到推断、更正和可解释性层面。 2.核心实体识别和黄金记录创建 实体管理是主数据管理 (MDM) 的核心。其目标是正确识别重复项、理解关联关系并创建可靠的黄金记录。Gen AI 利用自然语言处理 (NLP) 和模式识别技术,改进了身份和关联关系的解析方式,尤其是在名称、结构或分类存在差异的情况下。 假设有三份医疗机构的记录: 传统主数据管理: 由于缩写(“Gen. Hosp.”),记录 D 和 E 最终可能被视为两家不同的医院,而不是同一机构的重复记录,从而导致数据碎片化。 此外,记录 F 显然是一个部门,可能会被错误地合并到医院主记录中,或者完全单独保留,从而扰乱准确的汇总报告。 人工智能辅助主数据管理: Gen AI 执行语义实体解析。它正确识别出记录 D 和 E 尽管缩写不同,但指的是同一家医院,并将它们合并成一条标准化的记录。 然后,它将记录 F 识别为相关的子实体(部门),而不是重复记录。它将记录 F 链接到主医院记录下,从而确保运营汇总和部门特定报告的准确性。 3.管理和治理执行 主数据通常包含敏感信息、受限信息或受规则约束的信息。某些记录仅限内部使用,而其他记录只有在满足特定条件(例如获得同意、符合合同条款或监管要求)的情况下才能共享。由于主数据管理 (MDM) 处于主数据标准化和分发的关键节点,因此它在控制数据流向方面发挥着至关重要的作用。 主数据管理 (MDM) 本身并不决定是否存在用户同意或是否存在适用法规。这些决定通常由隐私系统、同意平台或源应用程序做出。MDM 的作用是在主数据发布或向下游共享时强制执行这些决定。传统的 MDM 只能在信号明确且基于规则的情况下才能做到这一点。Gen AI 通过帮助 MDM 理解上下文来改进这一点,即使信号不完整、隐含或嵌入在文本中,也能强制执行策略。 请考虑以下两个治理挑战: 传统主数据管理: 它可能会错过客户记录中的“内部合作伙伴”等语义线索,或者患者指标数据流中缺少“同意标签”。 因此,不合规的数据可能会向下游流动,造成治理和合规风险。 人工智能辅助主数据管理: Gen AI会根据上下文应用策略。它能够识别客户记录的内部状态,并将其从面向外部的列表中屏蔽。 在满足同意要求之前,它会阻止设备流的导出。 它以通俗易懂的英语向数据管理员解释了问题,并明确了后续步骤,从而使补救措施更快、更一致。 在这个例子中,Gen AI 帮助主数据管理 (MDM) 系统理解何时不应共享数据,即使这些信息隐藏在文本中或结构化字段中缺失。MDM 系统随后会在发布点阻止数据流向下游,而不是让数据继续向下流动。 基于人工智能的MDM用例 在前一节中,我们探讨了Gen AI在主数据管理(MDM)中实现的三大核心功能:提升数据质量、强化匹配和黄金记录创建,以及提高数据管理和治理效率。您可以将这三点视为Gen AI为MDM带来的三种“力量”。它们本身就很有用,但只有将它们应用于团队试图解决的具体问题时,才能真正体现其价值。 这就需要更具体的用例了。下图 3 展示了 11 个基于人工智能的 Gen AI 赋能的 MDM 实际用例。其中一些用例可能与之前的示例类似,而另一些则是全新的。 让我们更详细地了解一下它们: 智能增强。Gen AI 可从网络等可信外部来源查找信息,自动为主数据添加缺失或有用的信息。这减少了人工查找工作,并使记录更加完整。例如,如果客户记录缺少地址,Gen AI 可以自动查找并添加。 业务规则/数据验证。Gen AI 会检查重要数据值在上下文中是否合理,而不仅仅是检查字段是否已填写。例如,它可以标记出主要地址明显不是医疗机构的医疗保健专业人员。 上下文感知标准化和增强。Gen AI 理解不同的词语可以指代相同的事物,并据此进行标准化。例如,它知道“Mike”和“Michael”通常指同一个人。 自动化参考数据管理。Gen AI 将源系统中混乱或不一致的值映射到公司使用的清晰、标准值。这取代了手动查找表,并减少了后续维护工作。例如,它可以将“心脏科”、“心脏病学”和“心脏专科医生”映射到单一的标准专科。 监管合规性监控。Gen AI 通过将主数据与已知列表或条件进行比对,帮助检测其是否违反监管规则。例如,它可以标记因监管限制而不应使用的实体(例如,因为某公司出现在 FDA 的禁入名单上)。 关联关系验证与管理。Gen AI 可以理解实体之间的关联方式。例如,即使之前没有明确存储这种关联关系,它也能识别出诊所属于某个医院网络。 数据异常检测与解决。Gen AI 能够识别与类似记录相比异常或错误的数据值。它不仅可以标记问题,还能提出修复建议。例如,它可以标记一位被列为 92 岁的儿科专家,并建议进行更正。 基于上下文的匹配。Gen AI 通过比较含义而非精确值来判断两条记录是否代表同一个现实世界的实体。即使数据不完整或不一致,这也有助于匹配记录。 基于上下文的生存策略。当记录合并时,Gen AI 会根据可靠性和使用情况来决定应该保留哪些值。这超越了简单的来源优先级规则。例如,它可以保留最近使用和验证过的电话号码,而不仅仅是排名最高的系统中的号码。 自动化元数据整理和编目。Gen AI 可自动描述和标记数据,以便人们了解数据的内容及其用途。例如,它可以将数据集标记为“客户主数据——仅供内部使用”。 自动化管理队列解析。Gen AI 可自行解决简单的数据问题,仅将复杂案例发送给人工处理,从而减少管理员需要手动审核的项目数量。 Gen AI 如何集成到 MDM 中 在前几节中,我们探讨了Gen AI赋能的具体功能及其在主数据管理(MDM)中的应用方式。这些方法本身就能带来价值。在本节中,我们将了解如何将这些功能连接起来,并在整个MDM流程中端到端地应用,从而实现相互促进,发挥最大的整体效益。 如图 4 所示,Gen AI 可以贯穿整个 MDM 生命周期: 数据采集与导入。当数据从源系统到达时,Gen AI 能够及早发现明显问题、补充缺失的上下文信息,并将数值与已知标准进行比对,从而帮助清理数据。这减少了后续的返工,并提高了进入母带制作阶段的数据质量。 主数据管理。在主数据管理的核心步骤中,Gen AI 支持匹配、存续管理和数据管理。它有助于更准确地识别重复项,在决定保留哪些值时提供上下文信息,并通过提出带有解释的清晰操作建议来减少人工队列工作。 数据发布与使用。在共享主数据时,Gen AI 可确保将正确的数据传递给正确的用户。由于质量和治理在数据流的早期阶段就得到了处理,下游系统能够接收到更清晰、更可靠的数据。在某些情况下,这也会改变人们访问主数据的方式。例如,销售代表等用户无需浏览报告或编写查询,只需提出诸如“Acme MedTech 的最新联系方式是什么?”或“芝加哥哪些医院上个季度购买了这款设备?”之类的问题,即可直接从经过验证的黄金记录中提取答案。 图 5 缩小了视图,展示了其技术实现方式。Gen AI 依赖于现有的数据存储、元数据和主数据管理 (MDM) 引擎,并在此基础上添加了智能功能。它利用元数据、参考数据和历史决策来提供更优的建议和检查,而传统的 MDM 组件则继续执行核心流程。 关键在于,Gen AI并非与MDM并行运行的独立系统,而是一个附加层,旨在改进MDM的日常运作,使流程更快、更具可扩展性且更易于操作,同时又不改变MDM本身的基本原理。 从追赶到引领 MDM 的发展 如果我们观察当今市场的发展趋势,就会发现一些规律。大多数组织都在向前发展,但速度和方式各不相同。有些组织采取的是渐进式改进,而只有少数组织采取了更为审慎的措施,从根本上改变了主数据管理(MDM)的运作方式。 许多公司正在以专注且务实的方式应用 Gen AI,而且大多是在现有的 MDM 基础架构之上: Gen AI 实用工具和试点项目。团队会开展小型试点项目,用于数据丰富、验证或管理自动化,以证明其价值并建立信任,然后再进一步扩大规模。 团队中更广泛地采用主数据管理 (MDM)。MDM的功能范围不断扩展,通常与客户关系管理 (CRM)、电子邮件或分析工具等数字渠道相结合。 现代技术基础。各组织正从点对点集成转向 API、模块化服务和微服务,以使 MDM 更易于扩展和重用。 更智能的管理和目录。通过自动化减少人工管理,用更动态、可搜索的数据目录取代静态元数据存储库。 探索数据架构和数据网格。一些组织开始跨域联合主数据,同时保持共享标准和集中治理。 这些步骤很重要。它们提高了效率和灵活性,但通常是对现有移动设备管理 (MDM) 系统进行改进,而不是从根本上改变它们。 那些取得更大飞跃的公司,会将这些理念融入到更有针对性的主数据管理(MDM)设计中: 以人工智能为核心重新设计主数据管理 (MDM)。这些组织并非仅仅在现有工具上添加人工智能功能,而是重新设计 MDM,使人工智能系统能够协调匹配、数据丰富、管理和验证等核心活动,并越来越多地将这些平台作为传统 MDM 解决方案的长期替代方案。 利用人工智能助手和自然语言界面赋能团队。人工智能助手可支持数据验证、血缘关系检查和策略执行等任务。自然语言和对话式界面使业务用户无需深厚的技术知识即可与主数据进行交互。 实现合规性和政策监控自动化。系统会自动监控内部政策和外部法规(例如 个人信息保护法、GDPR 和 HIPAA)的合规情况。这既减少了人工干预,又提高了合规一致性,同时降低了风险。 构建互联互通的数据生态系统。主数据旨在跨更广泛的生态系统运行,连接医疗服务提供者、支付方、制造商和患者。这些连接能够带来生态系统层面的洞察和新的商机。 采用图谱和知识技术。知识图谱用于表示主数据实体之间复杂的关联关系。为了支持互操作性和更丰富的数据交换,我们采用了行业标准,例如医疗保健领域的 IDMP 和 HL7、消费品和零售领域的 GS1、银行和支付领域的 ISO 20022、保险领域的 ACORD 以及供应链和物流领域的 EDIFACT 或 ISO 标准。 小结 主数据管理一直至关重要……但它却鲜少令人感到轻松愉快。其基本要素始终未变:干净的数据、一致的定义和强有力的治理。而人工智能时代改变的是主数据管理的体验。 对于大部分主数据管理 (MDM) 工作而言,Gen AI 可以帮助更高效地完成相同的任务。数据质量、匹配和管理依然存在,但速度更快、自动化程度更高,并且减少了对无休止的人工审核的依赖。团队可以将更多时间用于解决显而易见的问题,从而专注于更有价值的决策。 但生成式人工智能(Gen AI)也提升了主数据管理(MDM)的优势。它为决策提供背景信息,使复杂数据更易于理解,并通过自然语言和更简单的交互方式改变人们使用主数据的方式。当MDM变得更快捷、更易用、更直观时,它不再像是一个控制功能,而更像是一种人们真正想要使用的能力。这种体验的转变正是真正令人兴奋的地方所在。 来源(公众号):数据驱动智能
2026-02-11 18:09 77
随着信息技术的飞速发展,全球数字经济规模正以惊人的速度持续扩张。数据正作为一种新型生产要素深度融入各领域,并成为企业创新发展与效率提升的核心驱动力。数据好比是一种新的“石油”,在不断提升企业洞察市场、优化流程、精准决策能力的同时,重塑着商业竞争格局。然而,在这场数字化浪潮中,建筑行业作为典型的传统产业,却面临诸多挑战,其数字化转型进程明显滞后于其他行业。早在2016年,麦肯锡全球研究院发布的报告便揭示了一个严峻事实:在全球众多行业中,建筑业的数字化水平仅高于农业,位居倒数第二位。德勤咨询2019年开展的“数字化成熟度”调查也再次印证了这一状况,建筑业在该调查中得分仅为4.50,在众多被调研行业中排名垫底。这一系列数据无不表明,建筑行业的数字化转型之路任重道远,亟待加快步伐以适应数字经济时代的发展潮流。 在此背景下,如何系统性构建建筑业企业级数据管理体系,实现从“数据孤岛”到“数据资产化”的转变,成为亟待解决的课题。本文以DCMM国家标准为基准,结合企业的实践案例,提炼出一套具备可操作性的数据管理体系建设方法,旨在为行业提供理论与实践经验借鉴。 本文采用理论分析与案例研究相结合的方法开展分析研究。①理论框架:基于DCMM标准的8大能力域和5级成熟度模型,构建数据管理体系的理论基础;②案例研究:以某建筑行业信息化企业为对象,分析其在数据战略、治理、技术落地等方面的实践经验;③量化分析:通过具体项目数据(如效率提升率等)验证方法论的有效性。 1 对DCMM标准的学习和理解 DCMM是GB/T 36073-2018《数据管理能力成熟度评估模型》国家标准,英文简称:Data management Capability Maturity Model,是我国首个数据管理领域正式发布的国家标准,旨在帮助企业利用先进的数据管理理念和方法,建立和评价自身数据管理能力,持续完善数据管理组织、程序和制度,充分发挥数据在促进企业向信息化、数字化、智能化发展方面的价值。 DCMM标准为企业提供了体系化框架,明确了数据管理维度。其定义了8大核心能力域(数据战略、数据治理、数据架构、数据应用、数据安全、数据质量、数据标准和数据生命周期)、28个能力项和5级成熟度(初始级、受管理级、稳健级、量化管理级和优化级),覆盖从战略规划到技术落地的全链条管理需求。例如,数据治理域要求企业建立制度体系、组织架构和沟通机制,而数据安全域则需制定安全策略、审计和管理措施。这一框架帮助企业避免“头痛医头、脚痛医脚”的碎片化管理,指导企业形成覆盖数据全生命周期的闭环体系。DCMM标准能指导企业战略规划与业务协同,其强调数据战略与企业整体战略的匹配性,要求企业将数据视为核心资产,明确数据管理目标与业务发展的关联性,确保数据管理能力提升与企业数字化转型目标同步推进。DCMM标准规范了企业治理机制,提出了流程标准化要求。其制定了445项具体的指标,倡导跨部门协同,通过DCMM标准的数据集成共享能力项逐步打破数据孤岛。DCMM标准能指导企业促进技术与业务融合创新,其不仅关注技术实施,更强调数据应用价值,其数据应用能力域要求企业通过数据分析支持业务决策,并探索数据开放共享的变现模式。 通过对DCMM标准的深入学习,在充分理解的基础上对其核心逻辑加以总结并提炼为:①战略对齐。数据管理需服务于企业业务目标。②治理先行。通过制度与组织保障数据管理的规范性。③技术支撑。以集成架构与工具链实现数据流通与应用。④价值闭环。通过数据服务反哺业务创新。DCMM框架图如图1所示。 图 1 DCMM 框架图 2 建筑行业数据管理痛点分析 在建筑行业的数字化转型进程中,数据管理面临多重挑战,具体表现为以下核心痛点。 其一,数据孤岛壁垒森严,协同效率低下。企业内部项目管理、财务核算、供应链等系统往往由不同供应商独立开发。这种分散式的开发模式,使得各系统在数据定义、格式、编码规则等方面缺乏统一标准,也没有规范的接口协议,系统之间如同一个个信息“孤岛”彼此孤立,数据跨系统流通严重依赖人工导出Excel表格或纸质文件。例如,项目进度、成本等相关数据往往需由工程部门手动同步至财务系统进行成本核算,不仅效率低,还易因数据版本混乱引发决策偏差。 其二,数据质量失控,业务成本陡增。从数据采集环节来看,施工现场仍大量依赖人工填报数据,缺乏自动化采集手段。施工人员在填写材料验收记录、施工日志等信息时,不仅容易因疲劳、疏忽导致数据遗漏、重复录入,而且不同人员的填写习惯和标准不统一,造成格式错误频出。在数据传输环节,由于缺乏统一的数据标准和高效的传输渠道,大量数据在系统间流转时面临兼容性问题,进一步加剧了数据质量的恶化。以混凝土强度检测数据为例,手工录入失误可能导致质量验收延迟,甚至触发返工风险,直接推高工期与成本。 其三,安全防护薄弱,合规风险高企。施工现场部署的工控系统、物联网设备,如塔吊传感器、环境监测仪等,出于便捷管理和数据传输的考虑,常直接暴露于公网环境。但企业往往忽视网络安全建设,未及时配置基础防火墙或采取数据加密措施,使得这些设备如同“裸奔”在网络空间中。一旦遭受黑客攻击或恶意软件入侵,施工图纸、工程进度等核心数据以及人员身份信息等敏感数据极易泄露。这些数据一旦外泄,不仅会使企业面临监管部门的高额罚款,也会损害企业的品牌形象,给企业带来难以估量的损失。 其四,数据价值沉睡,决策支撑缺位。建筑企业海量历史项目数据(如施工工艺参数、供应商履约记录)分散存储于本地服务器或个人终端,缺乏结构化归档和标签化管理,难以通过数据分析挖掘规律。例如,企业无法利用历史项目工期延误数据构建预测模型,导致无法预先识别工期风险;企业也无法将优秀项目的管理经验转化为知识库,使得“经验复利”效应近乎为零。 这些痛点长期存在且相互交织,不仅制约了企业降本增效的空间,更是削弱了其可持续创新的能力。因此,如何构建适合自身管理要求的数据管理体系,成为了众多企业的研究目标。 3 企业数据管理体系建设五步法 以DCMM为理论指导,结合建立企业级数据管理体系实践经验总结,提出“战略规划-组织治理-架构设计-技术实施-价值应用”的企业数据管理体系五步法模型。 3.1 步骤一:数据战略规划--明确方向与优先级 数据战略规划是企业发展战略规划在数据领域的延伸与细化,是企业发展战略落地的数据支撑路径。数据战略规划的整体目标是制定与企业战略匹配的数据管理愿景,识别核心业务场景需求,设计分阶段实施路线图。 数据战略规划的实施策略可以分为3个环节:一是开展需求调研;二是进行成熟度评估;三是规划路线图设计。 按上述方法,公司组建专项工作组,通过“自上而下”与“自下而上”相结合的调研方式,首先对战略决策层开展深度访谈,聚焦企业战略目标与数据赋能的结合点。同时深入各业务部门进行流程测试,梳理出涵盖经营、生产、供应链等各业务域的32个核心数据场景与业务流程图谱。经DCMM数据战略维度对标评估,发现存在数据战略与业务战略匹配度不足、跨部门数据协同机制缺失、数据应用价值挖掘深度不够等关键问题。针对评估结果,公司制定出分阶段推进的“三年三步走”行动路线图,如下:①筑基期(2024-2025年)。完成数据底座建设,整合核心业务系统。②深化期(2025-2026年)。实现数据服务标准化,支撑内部数据共享利用。③赋能期(2026-2027年)。输出数据能力至外部市场,形成新增长点。数据战略实施路线图示例如图2所示。 图2 数据战略实施路线图示例 3.2 步骤二:数据治理组织与制度--构建管理闭环 数据治理组织与制度的核心目标是构建权责清晰、高效协同的治理体系,建立跨部门协作机制,制定覆盖数据全生命周期的制度体系,推动数据要素价值释放,最终形成“制度管流程、平台控操作、考核促执行”的闭环治理模式。 数据治理组织与制度的实施策略可以分为3个方面:一是在组织设计方面,成立独立的数据管理组织并由高管担任负责人;二是在制度制定方面,制定并发布数据管理体系相关制度;三是在考核机制方面,针对数据管理成效制定专门的考核指标。 按上述方法,公司成立由首席数据官(CDO)牵头的跨部门数据管理委员会,统筹协调经营、生成研发、合规等相关部门,下设数据标准组、质量管控组与安全审计组,明确各业务单元数据专员的协同职责,形成“横向联动、纵向贯通”的矩阵式管理架构。由数据管理委员会牵头,围绕数据全生命周期制定《数据分类分级管理办法》《数据质量评价标准》《数据安全实施细则》等12项核心制度,覆盖数据采集、存储、加工、共享和销毁等关键环节。公司在建立数据管理组织体系和制度系统后,设计了适应本公司的“数据认责矩阵”。通过运用“数据认责矩阵”,明确了各部门在数据管理体系中的职责和定位。 数据所有者(业务部门):负责数据录入、质量初审。 数据管理者(IT部门):负责技术平台维护与安全防护 数据消费者(管理层):提出数据应用需求。 对“数据认责矩阵”运用开展了3个月的成效跟踪,发现数据质量问题平均解决时间从7d缩短至3d,跨部门数据共享率提升至85%。 3.3 步骤三:数据架构与集成--打破孤岛实现互通 数据架构与集成的核心目标是构建企业级数据底座,打破系统孤岛整合多源数据,在支撑业务协同的同时实现数据的标准化、服务化与价值化。 数据架构与集成的实施策略可以分为3个方面。 一是模型设计,以业务流程为主线,构建主题域模型。通过梳理关键业务流程(如项目从立项到实施再到验收的全生命周期),设计出契合业务需求的高层次数据模型。这一过程确保了数据架构与业务目标的高度一致性,为后续的数据集成与分析奠定坚实基础。 二是技术选型,在技术实现层面,采用Apache Kafka作为实时数据流的核心中间件,确保数据的高吞吐、低延迟传输;同时,利用Flink作为流批一体的计算引擎,支持实时流处理与批量处理的统一框架,提升数据处理的灵活性与效率。 三是元数据管理,引入元数据管理平台,构建数据血缘图谱,实现数据流转过程的全链路可视化管理。通过元数据的集中化管理与追踪,增强数据的可观测性与可治理性,为数据质量和数据安全提供有力保障。 公司在用供应链管理系统一直存在与ERP、财务系统数据割裂的问题。为解决数据集成问题,公司决定开发数据底座重塑数据架构。先是定义了200+数据接口规范,支持API、文件传输多模式集成,实现了接口的标准化;然后运用Trifacta等工具清洗历史数据,使历史数据错误率从12%降至3%,进一步实现数据的标准化并提高数据一致性。通过数据底座实现标准数据关联共享后,线上业务处理时间平均缩短至8min以内,工作协同效率大大提升。数据底座-数字员工示意图如图3所示。 图3 数据底座-数字员工示意图 3.4 步骤四:数据安全与质量控制--夯实管理基础 数据安全与质量控制的目标是建立分层防护体系,实现数据质量闭环管理。 数据安全与质量控制的实施策略可以分为3个方面:一是安全防护,基于“零信任”架构,部署微隔离技术,划分数据安全域;二是质量管控,在数据中台或数据管理平台内置质量规则引擎(如唯一性、完整性校验);三是合规审计,每季度开展数据安全演练,模拟勒索软件攻击、内部泄密等场景。 公司实施多因素认证(MFA)与动态权限管理,所有用户/设备访问数据前需通过持续身份验证。制定包含完整性、准确性、一致性等6大维度18项数据质量指标并在数据底座中嵌入质量校验模块,支持自定义规则配置。每季度开展红蓝对抗演练,模拟勒索攻击、内部泄密、数据篡改等场景,极大提高了全员数据安全意识。 3.5 步骤五:数据应用与价值挖掘--释放数据潜能 数据应用与价值挖掘的核心目标是构建数据资产运营体系,通过技术创新与生态协同释放数据要素价值。 基于DCMM数据应用域要求,数据应用与价值挖掘的实施策略可以分为3个阶段:一阶段是自动化工具的开发和应用,开发RPA机器人,实现数据跨系统自动填报;二阶段是实现知识管理,构建基于NLP的企业知识库,支持历史项目文档语义检索;三阶段是商业化探索,将数据资产打包为各类服务型产品。 按上述方法,公司通过开发物资RPA、进度RPA等自动填报机器人,实现了只在项目现场管理系统进行一次人工填报,其他管理系统通过RPA自动填报,达到了人工成本和填报错误率双降的效果。公司还搭建了智能体平台并利用自有数据资产训练“数字员工”,如利用财务系统现有的采购申请、报销申请数据训练“流程助手”,帮助员工快速生成公司制式单据。利用现有合同评审数据训练“合规审计助手”,自动扫描合同条款风险,帮助员工完成合同逐步检验,帮助识别合同中的法律风险。利用公司现行的制度规范数据训练,方便员工快速获悉最新的制度变化与制度核心内容。 “数字员工”的上线使用,极大程度提高了员工的工作效率。后续公司将逐步建立数据资产入表机制,完成高价值数据的资产确权与价值评估,通过“技术+场景+生态”的立体化价值挖掘模式,逐步提升企业数据资产利用率,驱动数字化转型从效率提升向价值创造跃升。 4 实施挑战与对策 企业数据管理体系五步法模型在实际贯彻实施过程中,往往会面临组织协同与技术实施层面的双重挑战,需要针对性地设计解决方案。例如在组织协同层面,当业务部门因权责归属问题对数据共享产生抵触时,就需要构建“制度牵引+价值驱动”的双重保障机制。首先,由数据管理委员会牵头以数据认责矩阵为依据,明确原始数据所有权、加工数据使用权与共享数据收益权的划分标准,通过数据资产价值评估模型量化各部门贡献度,消除权责模糊隐患。其次,建立“数据积分激励机制”,将数据资源贡献量、API调用次数等指标纳入部门绩效考核,对排名前20%的部门给予资源倾斜或数字化转型专项资金奖励来提高共享积极性。在技术实施层面可能会面临历史遗留系统改造难度大,数据模型兼容性差的问题,这时可采用“渐进式迁移”策略,优先集成高价值系统,每年按业务优先级滚动更新20%系统接口标准,确保技术演进与业务发展同步。 5 结束语 综上所述,以DCMM为理论基础的“战略规划-组织治理-架构设计-技术实施-价值应用”企业数据管理体系五步法模型,能帮助企业实现数据战略对齐和资源聚焦,明确数据管理权责,提高数据质量和数据安全性,最终帮助企业构建起完整的数据管理体系实现数据全生命周期管理。 来源(公众号):数据治理体系 作者:中铁建网络信息科技有限公司 李飞鸿
2026-02-05 18:13 129
热门文章