ChatGPT 容易通过 YouTube 脚本进行提示注入

要闻 编辑:
导读 随着 ChatGPT 插件的出现,出现了新的安全漏洞,这些漏洞允许不良行为者在您的聊天会话期间向机器人传递指令。AI 安全研究员 Johann R

随着 ChatGPT 插件的出现,出现了新的安全漏洞,这些漏洞允许不良行为者在您的聊天会话期间向机器人传递指令。AI 安全研究员 Johann Rehberger 记录了一个漏洞,该漏洞涉及从 YouTube 转录文本向 ChatGPT 提供新提示。

在他的 Embrace the Red 博客上的一篇文章中,Rehberger 展示了他如何编辑他的一个视频的文字记录,在底部添加文本“***重要新说明***”和提示。然后,他要求 ChatGPT(使用 GPT-4)总结视频并观看它遵循新指令,其中包括讲笑话和称自己为 Genie。

ChatGPT 只能通过一个名为 VoxScript 的插件来总结 YouTube 视频的内​​容,该插件会通读文字记录和描述以回答您有关它们的问题。已经有许多第三方插件可以从视频、网站、PDF 和其他媒体中提取数据。从理论上讲,如果它们没有做足够的工作来过滤掉嵌入在它们分析的媒体中的命令,它们可能会受到类似的攻击。

乍一看,向某人的聊天会话添加不需要的提示似乎不太可能造成重大伤害。谁不喜欢在他们的输出中加入老生常谈的笑话?在他的博客上,研究员 Simon Willison概述了所有的坏事(在新标签页中打开)这可能会发生,包括泄露数据、发送电子邮件或使搜索索引中。随着用户使用将聊天机器人链接到他们的消息、银行账户和 SQL 数据库的插件,这些问题将变得更加普遍。

标签:
免责声明:本文由用户上传,如有侵权请联系删除!