新工具可以让艺术家“毒害”他们的作品,从而扰乱接受过训练的人工智能

许多人抱怨他们的工作被用于人工智能训练模型,他们不同意这种用途,也没有得到补偿。

如果艺术家能够用一种工具“毒害他们的作品”,以一种微妙的方式改变它,以至于人眼看不到它,但却对试图消化它的人工智能系统造成严重破坏,该怎么办?

这就是“Nightshade”背后的概念,其创建者声称该工具就是这样做的。 正如《麻省理工科技评论》发现的一篇尚未经过同行评审的论文中所述,由芝加哥大学教授本·赵领导的一组研究人员构建了一个系统,可以生成特定于提示的“毒药样本”,从而扰乱 像稳定扩散这样的图像生成器的数字大脑会搞砸它们的输出。

来源和详细信息:
https://futurism.com/nightshade-artists-poison-ai

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注