通答AI 8月2日消息。谷歌研究团队正在开展一项实验,他们使用OpenAI的GPT-4来攻破其他AI模型的安全防护措施。目前,该团队已经成功攻破了AI-Guardian审核系统,并分享了相关技术细节。
据了解,AI-Guardian是一种AI审核系统,能够检测图片中是否存在不当内容,并判断图片是否被其他AI修改过。如果检测到图片存在上述情况,系统会提示管理员进行处理。
谷歌DeepMind的研究人员Nicholas Carlini在一篇名为“AI-Guardian的LLM辅助开发”的论文中,探讨了使用GPT-4“设计攻击方法、撰写攻击原理”的方案,并将这些方案用于欺骗AI-Guardian的防御机制。
据悉,GPT-4可以发出一系列错误的脚本和解释来欺骗AI-Guardian。论文中提到,GPT-4可以让AI-Guardian将“某人拿着枪的照片”误认为是“某人拿着无害苹果的照片”,从而使AI-Guardian直接放行相关图片输入源。谷歌研究团队表示,通过GPT-4的帮助,他们成功地“破解”了AI-Guardian的防御,使该模型的精确值从98%降低到仅8%。
该研究团队已经将相关技术文档发布在ArXiv中,有兴趣的读者可以前往了解。但是,AI-Guardian的开发者也指出,谷歌研究团队的这种攻击方法将在未来的AI-Guardian版本中不再可用。考虑到其他模型也会跟进,因此谷歌的这套攻击方案更多只能用于参考性质。