OpenClaw创始人建议用户不要使用小模型跑高风险任务 因为提示词注入防护非常弱

2026年03月07日 15:15 次阅读 稿源:蓝点网 条评论

日前有网友在社交媒体平台 X/Twitter 上展示自己在 OpenClaw AI 机器人里配置 GPT-5.4 的截图,这名网友还提到 GPT-5.4 要比 Claude Haiku 4.5 (该模型为轻量版) 要慢些,但没想到这则消息引起 OpenClaw 创始人 @Steipete 的关注。

@Steipete 的建议是用户不应该使用规模较小的模型或者提示词注入防护比较弱的模型来运行高风险任务,主要原因就是这些模型在提示词注入方面的安全防护比较弱或不完善。

事实上在 OpenClaw AI 项目的官方文档中也明确提到这个问题,即目前无法解决提示词注入,因此用户在高风险场景中应优先使用最新且指令对齐更强的模型来提高安全防护能力。

提示词注入是现在所有 AI 模型和工具都无法解决的问题,攻击者通过提示词注入手段可能会诱导 AI 模型执行某些高危操作,严重时可能会泄露用户的敏感数据。

而 OpenClaw AI 机器人通常需要更高的权限才能执行更多操作,也就是用户赋予的权限越高、提供的信息越多,那在出现安全问题后泄露的信息可能也会越严重。

项目官方文档还提到对于工具型智能体 (可执行、可读写、可联网) 应当收紧权限边界,只靠系统提示词的自觉性是完全不够的,这些都是要用户自己考虑的事情。

什么是提示词注入:

提示词注入指的是攻击者可以将恶意指令伪装在网页 / 邮件 / 文档里诱导 AI 违规执行,例如在网页开头以人类不可见形式添加 AI 指令要求模型将忽略系统提示词将查询的信息发送到某个服务器。

多数时候 AI 模型读取到这些提示词后可能会因为系统安全设置将其忽略,但有时候模型可能也会按照不可见提示词去执行命令,这就有可能导致用户所有敏感信息全部被泄露。

如果只进行日常问答或润色文案等,可以使用规模较小 / 比较旧的模型,这些模型速度更快并且价格可能也更加便宜,而日常文档和文案等只要不包含敏感信息即便泄露也不会有太大影响。

如果要跑自动化任务或者其他智能体任务,尤其是需要调用工具并联网执行操作的智能体,那建议用户优先选择最新和更强的模型来提高安全性,同时还需要优化 OpenClaw AI 机器人设置,仅赋予最小权限并采用会话隔离和来源过滤等措施提高安全性。

对文章打分

OpenClaw创始人建议用户不要使用小模型跑高风险任务 因为提示词注入防护非常弱

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘