不知道大伙儿还记不记得,几个月前有个老板 10 分钟被骗走 430 万的 AI 诈骗事件?
因为被诈骗的金额过于大,当时还引起了不小的轰动。
而在那之后,什么 9 秒被骗 245 万, 7 秒视频通话被骗 30 万,类似的 AI 诈骗事件是接二连三。
更可怕的是,利用 AI 换脸、 AI 换声,还衍生出了一条灰色产业链。
今年 3 月,一名女生在地铁被偷拍后又被人换成全裸的照片,一度冲上了热搜。
而像这种一键换脸,或者一键脱衣的违法行为在外网上可谓猖獗,有些人就是靠着贩卖 AI 换脸软件,或是帮助别人把脸换到色情视频里,以此来赚钱。
虽说,咱们现在都知道有 AI 换脸这回事儿,但这东西它防不胜防,即使脸和声音都对得上,也不一定是本人。
这才是 AI 的可怕之处。
现在是有一些用于检测内容是否由 AI 生成的工具,但检测的准确性, emm 多少还是有点一言难尽。
前不久, 还下线了自家的 AI 检测工具,理由就是错误率太高了。。。
所以要阻止技术滥用的问题,光靠检测是不够的,还得从根源上找法子。
最近,国外的创意内容平台 宣称,要用一种叫做 C2PA 的协议,给自家平台上的 AI 生成内容打上标签,用来区分人类创作。
这 C2PA 协议,倒也不是啥新技术。
两年前, Adobe 、微软、 BBC 等几家科技公司和媒体一起合作,成立了一个内容来源和真实性联盟 ( C2PA ) 。
成立的初衷呢也简单,当时受到 AI 等数字技术的影响,媒体发布内容的可信度越来越低,于是这些个巨头就想通过建立 C2PA 协议,打击网络上的一些虚假信息。
具体来看,这个 C2PA 协议是一种类似区块链的加密技术。
就比如说,一张图像里包含了数百万的像素, C2PA 通过数据加密技术给每个像素的来源信息进行编码,它最大的特点就是可以溯源。
简单来理解,有了 C2PA 协议之后,内容是谁创作的,历史的修改记录,这些都会被记录下来。
就相当于给你的图像、视频打上了一层看不见的水印( 文本目前暂时还不适用 )。
这个协议虽说不能防止 AI 作恶,但有了水印之后,至少能反向解决 AI 检测工具准确率不高的问题。
当你看到某段视频的时候,到底是 AI 生成,还是人类创作的,一目了然。
C2PA 协议推出之后,已经有部分企业将其集成到了自家的产品当中。
像微软,就已经在自家的 Bing Image 和 里装上了 C2PA 协议,AI 生成的图像都会被标记,并且还会披露出元数据的来源。
当然了,这种加密方法也存在一定的 bug ,那就是需要有足够多的内容创作者和平台使用这协议,不然也是白搭。
如果想要给平时拍的每一张照片都打上水印,这就需要把协议集成到手机相机里,又或者,你在 PS 上设计的图片,也需要平台集成了这个协议才行。
也就是说,C2PA 协议要生效,需要完整的使用链条。
可惜的是,目前在协议上,整个互联网还没形成统一的共识。
不过最近,来自 MIT 的大佬们,又推出了另外一个叫做 的工具。
这跟上边儿的协议还不太一样,如果说 C2PA 只是留下水印,那么 的方式就更简单粗暴了,直接切断了 AI 生成内容的生路。
原理很简单,就是利用 在原始照片中引入一种干扰的噪声得到免疫图片( ),但同时这种噪声又很难被察觉出来。
当有人想用图片进行 AI 恶搞时,就会得到一堆马赛克、或者扭曲的照片。
就比如论文中,原始照片是两个男人在看打网球,如果没有加防护,那么就会被随意更改,比如这样。
但 可以生成一模一样的免疫照片出来。
如果再有人想用 AI 来恶搞,就会得到一张这样的照片。
一个是打水印,一个是直接把路封死,要真的跟 AI 诈骗打起来,还不是嘎嘎乱杀?
但问题也出在这,技术有,但是还没能大规模用起来。
即使有微软、 Adobe 、 Arm 这些巨头撑腰, C2PA 协议的大面积铺开也还需要些时日,更别提刚出来的 了。
不过好在,事情还是朝着乐观的方向在发展。
包括上边儿提到微软的两个工具,还有 平台,今年陆陆续续都开始用起来了。
照着这势头, C2PA 在不久的将来或许大有可为。
况且, C2PA 协议一直都是开源的,这就方便了很多人把协议集成到应用当中。
毕竟, AI 诈骗、灰产肆意横行的同时,也在反推大家思考如何加快反 AI 诈骗的步伐。
同时呢,像 C2PA 这种打水印的方式,也给 AI 生成内容的版权问题,提供一个解决思路。
对于 AI 生成的内容,大家争论的关键点就是不希望自己的作品献祭给 AI 。
那倘若生成的结果显示数据来源了,作品收入也会根据来源来分成,那是不是也可以算作一种新的商业模式?
当然了,这也只是一种假设。
回到反 AI 诈骗本身,技术的进步固然重要,如果相关法规能适时再添一把火,相信也能好好治一治 AI 带来的这股不良风气。
不管怎么说吧,在规范形成之前,咱还是多留个心眼,以后可能眼见也不一定为实咯。