全民“养龙虾”,需防范失控风险
(来源:环球网资讯)
来源:环球时报
【环球时报报道 记者 郭媛丹】AI发展用浪潮席卷而来形容一点不过分。2025年开年DeepSeek的横空出世开启了“AI普惠”之门,2026年开年AI圈被一只“红色龙虾”——OpenClaw彻底引爆,该应用因其图标是一只红色龙虾而被戏称为“龙虾”。它被形容为“真正能干活的AI”,可以代替用户“接管电脑、解放双手”,但其带来便利性的同时也带来了潜在的隐患,接受《环球时报》采访的专业人士9日表示,新生事物的发展是不可阻挡的,但在张开双臂迎接它的同时,也要防范随之而来的风险。
结束AI“只说不干”的时代
由奥地利工程师施泰因贝格尔创建的OpenClaw今年1月对外开源,迅速在全球科技圈走红。OpenClaw被形容为结束了AI“只会说、不会干”的时代,主打不只能对话,还可替用户执行任务,包括收发邮件、管理日程甚至赚钱以及花钱等。
“OpenClaw作为代理式AI(Agentic AI),是一种IT‘新物种’,其不仅是脑,还是手、耳、嘴,可以代替用户做很多在网络上可以完成的事情,是好助理、好秘书、好帮手、好伙伴。”全国政协委员,安天科技集团董事长、首席架构师肖新光9日接受《环球时报》采访时表示,在此之前,无论DeepSeek或OpenAI有多“聪明”,都不能替用户在电脑上进行操作,而OpenClaw的核心价值不是基于生成的内容交互,而在于“行动”——它们不仅能生成图文内容,还能代表用户执行任务。
“你可以通过微信或电子邮件向它下达命令并与其交互。待它完成任务后,或者触发你设定的一些条件时,它也会通过微信或邮件向你发送通知或请示。”肖新光表示,ChatGPT代表AI“真正张开了嘴”,OpenClaw则代表AI“生出了手”。
面临四大风险
肖新光表示,新生事物的发展是不可阻挡的,但在张开双臂迎接它的同时,也要防范随之而来的风险。
奇安信安全专家汪列军9日接受《环球时报》采访时表示,在OpenClaw加速AI向“超人化”演进的进程中,存在四点风险。首先是权限失控风险。OpenClaw的设计初衷是拥有操作系统的最高权限以执行复杂任务。然而由于它具备“超级权限”和“超级能力”,一旦配置不当或被恶意诱导,可以轻松突破人类设定的安全围栏。
其次是“插件中毒”风险。OpenClaw的Skill(插件)拥有的权限包括文件系统读写、任意代码执行、网络访问,一个Skill拿到的权限甚至比大多数公司员工都大。AI助手(智能体)一旦被恶意篡改或植入病毒,这些权限全归攻击者所有,各种密码、系统指令、加密钱包、API密钥等将完全暴露,可被任意操作。
第三是远程入侵风险。许多用户在部署时缺乏安全意识,直接将OpenClaw的管理接口暴露在公网上,且未修改默认凭证或关闭不必要的端口。这使得黑客可以轻易扫描并接管这些“AI助手”,将其作为跳板攻击内网,或直接窃取服务器上的敏感数据。
第四是数据隐私泄露的风险。由于“龙虾”需要读取本地文件、浏览记录甚至代码库来完成任务,若部署在存有个人私密资料(如身份证照、财务数据、公司机密)的主力电脑上,一旦发生上述失控或被黑,所有数据将直接“裸奔”。工信部特别提醒,此类应用可能导致敏感信息被非法上传至境外服务器或被恶意程序窃取。
普通人该怎么防范
对于普通人而言,若想体验或使用这类AI助手,如何规避风险?肖新光给出两点建议。首先,对于个人用户来说,不要在日常使用的设备或存储重要本地信息的设备上部署相关程序。“龙虾”运行对算力和资源要求不高,可选择旧设备、购置二手设备安装,也可租用云主机,部分平台厂商还提供快捷解决方案。
其次,要做好设备的基础安全配置加固工作,停用并关闭不使用的服务端口。在安装Skill时,只安装必要的,默认仅开启核心Skill;谨慎使用自动登录功能,针对支付类 Skill,要设定严格的权限控制策略,对于花钱、删除等操作,要求必须手工确认。鉴于Skill 投毒事件频发,要谨慎进行Skill扩展。此外,还应安装具备Skill检测能力的主机安全软件,以加强防护。
汪列军认为,还应避免在日常办公电脑、存有重要个人资料(照片、文档、账号密码等)的个人电脑上安装OpenClaw。因为AI失控执行删除操作或被黑客控制,损失将是不可逆的。