研究人员使用 ASCII 艺术越狱人工智能聊天机器人——ArtPrompt 绕过安全措施解锁恶意问题

ArtPrompt 绕过了 ChatGPT 和 Llama2 以及 Gemini、Claude 和 Llama2 中的安全措施。

来源和详细信息:
https://www.tomshardware.com/tech-industry/artificial-intelligence/researchers-jailbreak-ai-chatbots-with-ascii-art-artprompt-bypasses-safety-measures-to-unlock-malicious-queries

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注