自从人工智能(AI)这个概念诞生以来,人类就对它的未来充满了各种各样的幻想。
就目前的水平来看,AI可能还需要很长时间才能像电影时间中那样消灭人类。
当#AI绘画获得一等奖,激怒人类艺术家#登上热搜,很多网友才意识到,现在的AI已经不是那个只搞抽象绘画的人了。
也是从这个时候开始,网络上关于AI绘画的讨论越来越激烈,谁也不服气。
然而,就在双方辩手打得难解难分的时候,关于AI绘画更离谱的玩法也浮出了水面。
自AI换脸技术逐渐成熟以来,为某个人制作AI换脸视频已经成为一个新的灰色产业。
奥巴马在视频中做了很多可笑的滑稽动作,很多网友都信以为真。
这类软件的操作也很简单,普通用户自己就可以。
比如让用户随便上传两张图片A和B,然后把图片属性分开再组合生成人脸。
这时,有人想道:
既然AI的学习能力摆在那里,不如把成千上万张人体照片作为训练样本喂给AI。
当AI从学校回来,它将成为一个可以生成任何人照片的神器。
我们输入一些关键词,它几分钟就能画出一张图。比如“比基尼美女游泳”。
有一种说法,这种AI生成的画面无限接近现实。
只是里面的人物和现实中的某个人并不对应。都是AI从数亿训练样本中提取拼接出来的。
如果选择动漫风格,还可以得到好看的二代妹子图。
得益于足够多的训练样本数据,pornpen可以为你生成各种“涩图”。
很多人把这种技术应用到成人视频上,几个小时就能生成假电影。
比如黑寡妇斯嘉丽约翰逊。
虽然AI很智能,但是仔细看还是会发现拼接的问题。
还有神奇女侠格尔加。
无人幸免。
国内某平台也有相应的产品销售。
这种行为当然涉及侵权,但除此之外,更令人担忧的是,由于AI变脸技术的现实表现,也可能被用于网络敲诈和造谣。
然而最近,英特尔开发了一款名为FakeCatcher的Deepfake检测工具,据称该工具在检测被AI篡改的视频方面有96%的准确率。
原理是通过检测血流来判断,因为Deepfake的脸不可能是正常的,血流造成的微弱变化。
当血液流经我们的身体时,我们的血管会以一种非常微妙的方式改变颜色。人眼很难察觉到这些变化,但可以通过光学密度计(PPG)检测到,它可以减少和放大面部的微弱变化。
然后,英特尔的人工智能引擎可以将这些变化与它的训练集进行比较,如果有什么不对,它会立即标记出来,以判断视频的真假。
可以说技术是用来打败技术的,这种一键结果的AI软件终于遇到了克星!
#娱乐聚焦# #冬日生活打卡季# #娱乐悬赏# #我在头条创作了第二期#