新浪财经 股票

全国政协委员周鸿祎:智能体是智能经济核心引擎,安全需覆盖物理世界

市场资讯 03.11 20:45

(来源:财闻)

今年政府工作报告首次提出“打造智能经济新形态”,智能体OpenClaw也在近期成为业内火爆话题,腾讯百度阿里英伟达等大厂纷纷下场加入OpenClaw战场,深圳、无锡、合肥、佛山、杭州等地方政府纷纷出台政策,支持企业和个人部署OpenClaw。

与此同时,OpenClaw的风险也开始出现。工信部和国家互联网应急中心发出风险提示,由于OpenClaw默认的安全配置极为脆弱,攻击者一旦发现突破口,便能轻易获取系统的完全控制权。工信部专家强调,即使更新到官方最新版本修复了已知漏洞,‌也并不意味着完全消除了安全风险‌必须采取针对性的防范措施。安全使用需坚持 ‌“最小权限、主动防御、持续审计”‌ 的核心原则。

对于智能体的发展和安全问题,财闻采访了中国政协委员、360集团创始人周鸿祎。周鸿祎表示,智能经济与数字经济的本质区别在于生产方式的根本转变。传统数字经济依赖人工判断、决策和执行,而智能经济让智能真正嵌入业务流程——智能体承担部分脑力劳动和流程执行,生产力增长从依靠人力和工具效率,转向依靠"可用智能体的数量和使用深度"。

在智能经济发展过程中,周鸿祎认为,智能体是核心引擎,它将大模型从“会说”变为“会干”。作为“数字员工”和“数字专家”,智能体把通用算力转化为懂行业、懂业务的“专用智力”,在人的监督和安全托底下形成规模化生产力。政府工作报告提出“打造智能经济新形态”,正是推动“人工智能+”从技术展示走向价值创造,让智能体像水电一样进入千行百业。

算力是智能经济发展的“能源”,而算力主要用于训练和推理。周鸿祎认为,算力布局需平衡训练与推理。当前智算中心“重训练轻推理”的结构需调整——训练决定模型能力高度,推理决定应用规模广度。随着智能体进入企业业务流程,大量“数字员工”持续执行任务,推理算力需求将激增,需推动算力资源全国合理布局。

对于人工智能发展伴随的安全问题,周鸿祎认为,AI将让安全能力更普惠。面对黑客智能体的自动化攻击,安全智能体可规模化复制稀缺专家经验,实现7×24小时防护。未来安全竞争的关键在于将专家经验训练成智能体,通过算力规模化提供安全能力,反而能降低门槛,让更多机构获得专家级防护。

他还指出,智能体安全需覆盖物理世界。当智能体与具身智能结合,可能影响设备运行和人身安全。需坚持“人在回路”,关键操作保留人工确认;智能体操作全程可追溯;同时用安全智能体持续挖漏洞、做测试,构建长期防御能力。

以下是采访全文:

财闻:今年政府工作报告首次提出“打造智能经济新形态”,并将智能体与具身智能、智能终端并列作为推广重点。你提出的“电力—算力—智力—人力—安全力—生产力”六力模型恰好对应这一战略。在你看来,“智能经济”与传统数字经济最本质的区别是什么?智能体在其中的核心引擎作用如何体现?

周鸿祎:在我看来,“智能经济”和传统数字经济最本质的区别,不在于“数字化程度更高”,而在于生产方式变了——传统数字经济本质还是人来做判断、做决策、做执行;而智能经济是让智能真正进入业务流程,让一部分“脑力劳动”和“流程执行”由智能体来承担,生产力的增长不再只靠人力和工具效率,而更多靠“可用智能体的数量和使用深度”。

智能体之所以是核心引擎,就在于它把大模型从“会说”变成“会干”。大模型提供的是通用智力,但要落到产业里,必须能规划任务、调用工具、协同执行,才能把算力转化成真正的生产力。你可以把它理解为:智能体是“数字员工”和”数字专家“,能把通用算力消耗成懂行业、懂业务的“专用智力”,再在人的监督管理和安全托底下,形成可规模化的生产力。

政府工作报告提出要“打造智能经济新形态”,这背后其实就是在推动“人工智能+”从技术展示走向价值创造,让智能体像水电一样进入千行百业,真正成为企业的生产工具。

财闻:你在提案中引用IDC预测,2027年我国推理算力占比将突破70%,未来两三年推理硬件规模可能是训练的3—10倍。但当前国家算力布局仍侧重训练侧,地方政府建设智算中心时也往往“重训练轻推理”。如果这一结构性错配持续,是否会导致智能体“缺电停运”,成为制约“人工智能+”行动的最大瓶颈?

周鸿祎:从产业发展的阶段来看,训练算力和推理算力其实是两个不同环节的能力,缺一不可。过去几年,全球AI竞争更多集中在模型能力上,各地建设智算中心时重视训练算力是很正常的,因为只有把基础模型能力做强,整个产业才有底座。到今天来看,训练算力依然非常重要,而且随着多模态模型、具身智能等方向的发展,训练侧未来仍然有发展空间。

不过随着大模型逐渐成熟、进入产业应用阶段,算力需求结构确实在发生变化。训练是阶段性的,而推理是持续发生的。特别是随着智能体开始进入企业业务流程,未来大量“数字员工”每天都在执行任务、调用工具、处理数据,对推理算力的需求会越来越大。

所以我更愿意把这个问题理解为发展阶段的重心变化,而不是简单的“训练和推理谁更重要”。训练算力决定模型能力的高度,推理算力决定应用规模的广度。下一步更重要的是让两者形成更好的协同,比如根据产业场景密度、算力需求和能源条件,推动算力资源在全国范围内更加合理布局,让训练和推理两端都能更好支撑“人工智能+”行动的落地。

财闻:你建议将推理芯片作为国产芯片差异化突围方向。但英伟达刚刚推出GB300等新一代推理芯片,性能优势依然明显。在“全国统筹+区域细化”的推理算力布局体系下,国产推理芯片如何在与国际巨头的竞争中找到应用场景,实现从“能用”到“好用”的跨越?

周鸿祎:英伟达在高端训练芯片和软件生态上,目前仍然有明显优势。但中国做芯片不一定非要在同一条赛道上和它硬拼。

从产业应用角度看,推理芯片的一个特点是应用场景非常广泛。很多企业私有化部署、智慧城市的摄像头、工业设备、机器人、自动驾驶等场景,对算力的需求更多是稳定、低时延、成本可控的推理能力,而不一定需要最高规格的训练芯片。如果这些场景都依赖昂贵的训练级GPU,整体成本压力会比较大。

中国企业在很多领域都有一个特点,就是比较擅长通过规模化应用把技术成本持续降低。如果推理芯片能够在成本效率和场景适配上形成自己的优势,它在企业数字化、机器人、智慧城市等领域都会有比较重要的发展空间。

财闻:你警告称黑客智能体可实现“自动化、批量化的不眠不休攻击”,360已部署上万安全智能体应对。但关键信息基础设施运营单位(如能源、金融、交通)往往“买得起设备、请不起专家”,面对国家级APT组织的AI化攻击,是否注定处于“降维打击”的弱势地位?安全是否正在成为少数巨头的“特权”?

周鸿祎:我认为恰恰相反,AI可能让安全能力变得更普惠。过去网络安全最大的瓶颈其实是人才稀缺。像漏洞挖掘、安全运营、渗透测试这些工作,都依赖少数专家,所以很多单位确实会出现“买得起设备、请不起专家”的情况。

但智能体带来一个很大的变化,就是稀缺的人类智力可以被规模化复制。过去一个单位可能只有几个安全专家,现在通过安全智能体,可以让很多“数字安全专家”同时工作,而且可以7×24小时运行。只要算力够,这种能力是可以不断叠加的。

当然,黑客智能体也会出现,这确实会提高攻击的自动化和规模化水平。但同样的技术也可以用在防御上,所以未来安全的竞争,很可能不是谁专家更多,而是谁能把专家经验训练成智能体,通过算力把安全能力规模化提供出来。从这个角度看,AI反而有机会降低安全能力的门槛,让更多机构都能获得接近专家级的安全防护能力。

财闻:政府工作报告中具身智能与智能体并列提出,你也提到智能体风险可从数字世界延伸到物理世界。当智能体与具身智能结合(如人形机器人、自动驾驶),其自主决策的物理操作可能直接危及人身安全。现有的网络安全法规是否已覆盖此类“AI物理安全”?是否需要建立跨部门的"AI物理安全"协同监管机制?

周鸿祎:过去网络安全更多发生在数字世界,比如数据被盗、系统被攻击、服务被中断。但如果智能体和具身智能结合,比如机器人、自动驾驶、工业设备,它就不只是“说错话、算错数”的问题,而是可能直接影响物理世界,涉及设备运行甚至人身安全。

从现有法律体系来看,中国在网络安全、数据安全、人工智能治理方面其实已经建立了一套比较完整的框架。但随着AI从“会回答问题”变成“能操作设备”,安全问题的性质也发生了变化,需要在技术和系统层面做更多准备。

第一是关键场景要坚持“人在回路里”,特别是涉及设备、资金和生产系统的操作,必须保留人工确认和接管能力。第二是智能体要像员工一样被管理,它做的每一步操作都要有记录,可以追溯。第三,可以利用安全智能体去挖漏洞、做渗透测试、分析海量告警,让安全能力能够长期、持续运行。

加载中...