研究人员使用 ASCII 艺术越狱人工智能聊天机器人——ArtPrompt 绕过安全措施解锁恶意问题
ArtPrompt 绕过了 ChatGPT 和 Llama2 以及 Gemini、Claude 和 Llama2 中的安全措施。
来源和详细信息:
https://www.tomshardware.com/tech-industry/artificial-intelligence/researchers-jailbreak-ai-chatbots-with-ascii-art-artprompt-bypasses-safety-measures-to-unlock-malicious-queries