意见领袖 正文

AI时代,每位高管都必须关注的经营责任丨系列文章连载

何大勇
2026-04-07 10:37:45

引言:

当AI以极低的门槛,渗透到企业的每一位员工、每一条业务流程、每一个对外触点时,它所带来的不仅是价值的放大,还有风险的叠加——既能快速提升生产力、激活创新动能,也会将安全漏洞、隐私泄露、合规风险与品牌声誉,暴露在前所未有的高压之下。

于是,正处在AI转型中的企业毫无疑问都面临着一个重要的管理议题:AI早已不再是某个部门的专项工作,而是每一位企业高管,都必须扛起的核心经营责任。

一、AI风险已从“技术问题”升级为“经营风险”

AI的强大,很大程度来自“任何人都能用”、以及能快速组织非结构化信息并生成看似可信的输出。但模型并不完美,偏差与“幻觉”仍然常见;更关键的是,AI把企业的风险暴露从传统的数字系统扩展到更广阔的组织活动中。今天的攻击者同样在使用AI,他们可以更自动化、更精准地发起欺诈、恶意软件与社会工程攻击,让企业的数据机密性、完整性与隐私面临持续压力。

站在高管视角,AI引发或加剧的“经营级风险”可以归纳为五类:一是安全风险,偏差或错误决策可能造成真实业务后果;二是数据损失风险,私密或机密信息被盗、泄露或误导流转;三是运营失效风险,系统不够韧性或输出不准确导致流程中断;四是声誉损害风险,业务失败、安全问题与数据事件会侵蚀客户信任;五是监管风险,隐私违规与不合规可能引发处罚与限制。它们并不是抽象概念,而是直接影响增长、成本与信任的核心变量。

二、从管理层入手搭建AI防护体系

推动AI真正落地,固然要立足企业既有能力,筛选可规模化复制的优质用例,但更不能忽视的是:在模型“建、买、用”的全流程中,必须提前筑牢数据保护、隐私防护与负责任使用的安全护栏。结合相关实践,这道护栏的搭建,离不开三项核心基础要素:

其一,搭建面向全企业的安全与隐私防护能力,且需与具体业务用例深度匹配,避免“一刀切”的防护模式,让安全适配需求、不拖慢落地节奏;其二,强化模型安全与安全应用设计,重点防范AI特有的脆弱点。比如算法供应链风险、训练数据完整性隐患,同时将安全措施嵌入标准化的开发与交付全流程,实现“安全随行”;其三,做好供应商与合作伙伴的治理,企业需清晰掌握外部平台及第三方的安全实践,通过明确约束,防范外部合作带来的连带风险。

而这些护栏的搭建之所以难度重重,核心在于其天然跨越多个组织边界:业务部门追求落地速度,安全部门强调风险控制,法务部门聚焦合规底线,技术部门负责平台与数据支撑,各有诉求、难以协同。要让这道护栏真正实现“可执行、可衡量、可问责”,唯有从高管层入手,明确各部门的责任边界与协作模式;否则,组织极易陷入“各自为政、风险外溢”的困境,让AI落地的价值大打折扣。

三、为高管团队绘制一张“AI责任地图”

要破解“人人重视但无人负责”的困局,最有效的办法,就是为高管团队的职责绘制一张清晰的“责任地图”:明确谁来定义AI落地的目标与优先级,谁来将安全隐私转化为可量化的机制,谁来提供数据与技术支撑,谁来统筹预算与投入产出,谁来把控合规与内容产权,谁来推动AI嵌入业务流程并带动全员采用。

作为企业核心掌舵人,首席执行官(Chief Executive Officer)的核心职责,是在实现AI业务价值的同时,守住客户信任与负责任使用的底线——既要牵头制定AI战略目标、向全组织清晰传导,更要对其他高管在安全与隐私上的落地效果进行问责,推动建立覆盖第三方供应商与平台的正式治理体系。当产品、法务与安全部门在目标或激励上出现冲突时,CEO需及时将组织拉回统一方向。

首席运营官(Chief Operating Office)则要聚焦AI与业务的深度融合,确保AI用例与业务目标同频,并且以“可韧性运行”的方式嵌入日常运营。这不仅需要COO设定运营侧的AI目标,更要将可衡量的安全与隐私流程纳入交付要求,同时规划好支撑AI运营所需的组织结构与能力建设。随着AI越来越深地渗透到业务流程中,COO还必须确保组织具备完善的排障与恢复能力,能够快速定位并解决AI流程中的中断与异常问题。

风险与信息安全负责人(Chief Risk and Information Security Officers)需协同发力,共同定义企业的AI风险容忍度与控制措施,在鼓励AI创新与严控潜在风险之间找到平衡,同时向其他高管清晰解读“价值与风险暴露”的取舍逻辑。值得注意的是,AI同样会提升攻击者的作案效率,因此他们还需推动安全团队加速能力升级。既要借助AI提升自身防护与响应速度,也要针对性弥补人才短缺带来的短板。

技术与数据负责人(Chief Information, Technology, and Data Officers)则承担着AI落地的“供给侧责任”:以合理成本提供必要的基础设施、系统与数据支撑,同时避免因实现方式不当拖慢创新节奏。他们必须重点关注数据来源与安全等级,因为AI可能将多个普通输入组合成敏感度更高的输出;为此,需建立具备数据使用可见性、关键知识产权认知的数据治理能力,并与风险、法务、信息安全团队紧密协作,形成从试验到上线的边界管控与清单化管理。

除了核心高管,产品、法务、财务、营销与人力资源等部门也绝非“配合方”,各自都有清晰的责任边界:产品负责人要确保AI落地不是“炫酷试验”,而是能切实创造客户价值、优化成本,并建立起衡量AI价值、影响与安全的指标体系;法务与隐私负责人需将相关法规与公司标准转化为可执行的制度,确保合规与隐私保护真正落地;财务负责人要清晰掌握AI使用方式及成本影响,推动完善合同条款、外部服务审查与预算机制,将安全与隐私成本纳入商业论证;营销负责人需重点关注AI生成内容的版权与来源合规,避免在传播环节引发声誉与法律风险;人力资源负责人则要联合技术、安全团队,制定AI使用政策与培训体系,让员工从“会用AI”转变为“规范用AI”,降低误用风险。

结语:

云与数据时代曾出现过的教训值得镜鉴:诸多企业一度放任各业务团队自行采购与启用第三方服务,缺乏统一兼容性与安全管控,管理层往往只能通过事后账单追溯实际使用情况。AI的渗透速度更快、触达范围更广,若缺乏统一的治理与可见性,类似局面恐将重演,而代价可能由当年的成本与效率问题,上升为数据泄露、合规处罚与声誉损害。因此,企业宜采取“审慎优先、有序推进”的路径:以跨职能协同覆盖价值创造、风险管控、合规要求与技术底座,优先将安全与责任机制落实到位,再逐步扩大用例规模,最终将AI转化为可控、可审计、可持续迭代的经营能力。

关于作者

何大勇

BCG董事总经理兼全球资深合伙人,25年金融与咨询行业经验,擅长战略与转型、组织与管控、数字化转型与创新,曾任职于大型金融机构总部、香港、纽约分部,芝加哥大学MBA,著有《银行转型2025》及近百篇BCG报告、文章

谭彦

BCG董事总经理兼全球合伙人,成功领导多个大中型银行的整体数字化转型项目,为客户创造超预期的业务价值。深耕产业金融、交易银行、财富管理、消费金融、手机银行、多渠道协同、智慧决策等领域,经验丰富

孙蔚

BCG波士顿咨询公司(BCG)合伙人兼副董事,专注于服务商业银行、保险公司、私募基金、信托公司等金融机构,在银行业数字化转型、生成式AI应用方面也有丰富的实战经验和前沿研究探索。

(本文作者介绍:波士顿咨询公司(BCG)董事总经理,全球资深合伙人,BCG金融机构专项中国区负责人。)

分享文章到
说说你的看法...
A-
A+