太可怕了!人工智能生成图片,造假新技术或已蔓延到学术界!

首先来看下面两张图片,你猜猜哪张图片是真实的人脸,哪个图片是人工智能(AI)生成的?

太可怕了!人工智能生成图片,造假新技术或已蔓延到学术界!

想好了吗?

答案是,左边这个是AI生成的,而右边的图片是真实的人脸。

再看看下面的图片,你还能分辨哪些是AI生成的吗?

太可怕了!人工智能生成图片,造假新技术或已蔓延到学术界!

结论是,以上这些照片都是AI生成的。

AI生成的人脸能够起到隐私保护的作用,避免在一些情况下的真人出镜,但是现在这个技术已经被玩坏了。

3月中旬,乌克兰总统Volodymyr Zelenskiy的一分钟视频首先出现在社交媒体上,后来出现在乌克兰新闻网站上。在其中,Zelenskiy告诉乌克兰士兵放下武器,向俄罗斯军队投降。但视频被证明是假的,是由机器学习创造的。

太可怕了!人工智能生成图片,造假新技术或已蔓延到学术界!

这个技术的副作用似乎也蔓延到了学术界。一些科学家现在担心,类似的技术可能会通过创建虚假的光谱或生物标本图像来进行研究欺诈。

微生物学家兼科学诚信专家Elisabeth Bik说:“我一直非常担心这些类型的技术。我认为这已经发生了,创建假图像并发表它们。”她帮助发现的600多项完全捏造的研究中的图像可能来自同一家论文工厂,可能是人工智能生成的。

太可怕了!人工智能生成图片,造假新技术或已蔓延到学术界!

与手动操作的图像不同,人工智能生成的图像几乎不可能通过眼睛检测到。在一项未经同行评审的案例研究中,由中国厦门大学计算机科学家俞容山领导的团队创建了一系列深度伪造(deepfake)的免疫印迹和癌症图像。三分之二的生物医学专家无法将他们与真实图片区分开来。

太可怕了!人工智能生成图片,造假新技术或已蔓延到学术界!

俞容山说,问题是深度伪造图像是独一无二的。它们没有显示人们通常寻找的痕迹,例如,重复的元素和背景不一致。此外,俞说,“深度伪造和其他工具现在非常成熟”。“这不是火箭科学,你不需要人工智能领域的顶尖专家来使用它们。”

Deepfakes通常基于生成对抗网络(Gan),其中生成器和鉴别器相互竞争。美国罗切斯特理工学院的deepfake技术研究员John Sohrawardi解释说:“一个网络试图从白噪声中生成假图像,比如说一张脸。”“它最初不知道如何生成人脸,所以它需要鉴别器的帮助,这是一个学习如何区分图像是真还是假的网络。”最终,生成器会愚弄鉴别者,使其认为其图像是真实的。

美国加州大学伯克利分校专门研究数字取证和错误信息的Hany Farid说,鉴于Gans可以合成与真实面孔别无二致的面孔,“我认为它能生成这些类型的相当普通的生物图像不应该令人震惊。”但是,虽然deepfakes是一个需要认真对待的威胁,但“我更关心的是可复制性、黑客攻击、P值篡改、Photoshop操纵,我怀疑这些老套的东西在相当长的一段时间内仍然会占主导地位。

太可怕了!人工智能生成图片,造假新技术或已蔓延到学术界!

▲这些食道癌图像是深度伪造的,是由生成式对抗网络创建的

罗切斯特全球网络安全研究所所长Matthew Wright表示同意。“我只是觉得这没有特别具有威胁性,尽管从技术上讲,这非常可能,而且可能很难检测到是否有人这样做。”

Farid解释说,机器学习留下的数字人工制品可用于识别假图像,尽管欺诈者通常在短短几个月后就找到了绕过这些方法的方法。Farid说:“归根结底,唯一真正的解决方案是主动的,在记录时使用硬加密进行身份验证。”他认为,科学的自我纠正机制最终将处理虚假研究。

太可怕了!人工智能生成图片,造假新技术或已蔓延到学术界!

▲实际和伪造的光谱图片,你能分清吗?

余容山说,目前还不清楚文献是否已经包含人工智能生成的图像。Bik说:“我认为我们已经到了不能再分辨文章是真的还是假的地步。”她建议:“我们需要更努力地与机构合作,让他们承担部分责任,并消除研究人员的压力,他们的整个职业生涯可能取决于在国际期刊上发表文章。”

参考链接

https://www.chemistryworld.com/news/ai-generated-images-could-make-it-almost-impossible-to-detect-fake-papers/4015708.article

原创文章,作者:v-suan,如若转载,请注明来源华算科技,注明出处:https://www.v-suan.com/index.php/2022/06/29/9a0fd088b0/

(0)

相关推荐