虽然未经同意的深度色情片多年来一直被用来折磨女性,但最新一代的人工智能使其成为一个更大的问题。这些系统比以前的深度伪造技术更容易使用,而且它们可以生成看起来完全令人信服的图像。
芝加哥大学(University of Chicago)计算机科学教授赵本(Ben Zhao)告诉我,图像到图像的人工智能系统允许人们使用生成式人工智能编辑现有的图像,“质量可以非常高……因为它基本上是基于现有的单个高分辨率图像。”“结果是相同的质量,具有相同的分辨率,具有相同的细节水平,因为通常(AI系统)只是移动事物。”
你可以想象,当我得知有一种新工具可以帮助人们保护自己的图像不受人工智能操纵时,我有多松一口气。PhotoGuard是由麻省理工学院的研究人员发明的,它的作用就像一张照片的保护罩。它会以我们无法察觉的方式改变它们,但会阻止人工智能系统对它们进行修补。如果有人试图使用基于生成AI模型(如Stable Diffusion)的应用程序编辑PhotoGuard“免疫”的图像,结果将看起来不现实或扭曲。读读我的故事吧。
另一个以类似方式工作的工具叫做Glaze。但它不是保护人们的照片,而是帮助艺术家防止他们的版权作品和艺术风格被抓取到人工智能模型的训练数据集中。自从Stable Diffusion和DALL-E - 2等图像生成人工智能模型进入市场以来,一些艺术家一直非常反对,他们认为科技公司窃取了他们的知识产权,并在没有补偿或信用的情况下使用这些知识产权来训练这些模型。
由赵和芝加哥大学的一组研究人员开发的Glaze帮助他们解决了这个问题。Glaze“掩盖”了图像,对人类几乎无法察觉的细微变化进行了应用,但却阻止了人工智能模型学习定义特定艺术家风格的特征。
赵说,釉会破坏人工智能模型的图像生成过程,使它们无法生成无数看起来像特定艺术家作品的图像。
PhotoGuard在网上有一个与Stable Diffusion一起工作的演示,艺术家们很快就可以使用Glaze了。Zhao和他的团队目前正在测试这个系统,本周晚些时候将允许有限数量的艺术家注册使用它。
但这些工具本身既不完美,也不够。例如,你仍然可以截取PhotoGuard保护的图片,并使用人工智能系统对其进行编辑。虽然它们证明了人工智能图像编辑的问题有巧妙的技术解决方案,但它们本身毫无价值,除非科技公司开始更广泛地采用这样的工具。现在,我们在网上的图片对任何想用人工智能滥用或操纵它们的人来说都是公平的游戏。