> 首页 > 中国新闻

“养龙虾”风险渐现 专家建议构建“虾笼”

近期在中国走红的开源人工智能体OpenClaw,引发安全风险疑虑。有专家建议构建可靠的“虾笼”,确保智能体的行动在预设、受监督的范围内。

中新社14日报道,OpenClaw的用户可用自然语言下达指令,让其完成收发邮件等复杂工作。因其图标酷似龙虾,使用这款AI智能体被人们称为“养龙虾”。

高度的智能性令“龙虾”进入中国后迎来高热度。在杭浙江州,一场“养虾分享会”的报名人数超限定名额的三倍、多个OPC(一人公司)社区实现人均“养虾”、市民排起长队等待免费安装“龙虾”……

多地官方也围绕“龙虾”出台支持举措以增加创新生态吸引力。例如杭州市萧山区提出从算力、数据到资本、人才全链条支持开源智能体产业发展。深圳龙岗区、无锡高新区、苏州常熟市、合肥高新区等地也出台相关政策。

开源人工智能体OpenClaw标识。(图片来源:视觉中国)

但随着“养龙虾”者增多,相关风险和问题也逐渐显现。

“00后”陈壬瀚不久前借“龙虾”开启副业——让它获取并整理金融网站的交易数据,搭建可靠的金融量化回测策略。令其担忧的是,调用大模型所消耗的token(词元)量或大幅增加成本。

“目前我使用的只是生成文本的AI大模型,使用token的成本还可接受。后续要实现全媒体自动化运营,‘龙虾’需同时接入生成文案、图片、视频的AI大模型,token消耗量不可控,成本更高。”他说。

风险更需要重视。中国国家互联网应急中心近日发布风险提示,指出由于OpenClaw智能体的不当安装和使用,已出现“提示词注入”、功能插件投毒等风险。

随后,中国工信部网络安全威胁和漏洞信息共享平台发布安全风险防范建议,中国国家工业信息安全发展研究中心发布风险预警通报。

浙江大学本科生院院长、人工智能研究所原所长吴飞认为,工具的效果取决于使用者的认知框架与价值观念,而非工具本身。“生成式人工智能因内容概率合成而不可避免存在技术短板。因此我们既要人机协同共生,拥抱新技术,也需保持人工智能向善伦理意识与必要的审慎和戒备。”

每日互动股份有限公司董事长方毅深耕数据智能领域多年。他认为,“龙虾”具备自主行动能力,如果获取高级系统权限,其行为可能超出开发者的预设与约束,极易成为社交工程攻击的目标。攻击者可以通过编造“有人需要急救”等紧急情况来博取“龙虾”的“同情心”,从而诱导其执行危险操作,导致用户受骗。

“所以必须将‘龙虾’关进笼子里。”他建议在技术应用层面发展垂直领域的“专虾”,这能将AI的能力聚焦于可控的专业领域,降低通用风险;在安全架构层面,必须构建可靠的“虾笼”,即安全可控的运行环境,确保智能体的行动在预设、受监督的范围内。

网友评论

10 条评论

所有评论
显示更多评论
分享到:

版权声明

33新闻网转载的内容,版权归新闻原信源所有,内容不代表本网立场。

本网站的所有内容仅供参考,33新闻网不对因使用本网站内容或依赖本网站信息而产生的任何直接或间接损失承担责任。

如需将本网站原创内容用于商业用或其他用途,请事先联系Channel 33新西兰中文电视台获取书面授权。联系方式:info@nzcmg.co.nz