chatgpt怎么避免被ai检测 如何应对ChatGPT等带来的AI威胁?

AI资讯1年前 (2023)发布 fengdao
34 0

点击“博文视点”,获取更多书讯

自问世以来,除了给大家带来很多便利,也引发了大家很多担忧!

之前,三星公司因泄露芯片机密,各类AI诈骗事件开始涌现,各科技界领袖因担心安全问题而联名叫停大模型开发……

面对等带来的AI威胁,我们应该如何做才能与AI和谐共生?

关于时代下的AI安全问题,博文视点“怎么看”栏目邀请到《人工智能安全:原理剖析与实践》一书的作者之一、KEEN联合创始人、前微软安全专家级工程师王海兵老师做客直播间带来了相关分享,以下为部分文字整理稿!

Q:什么是人工智能安全?

答:当我们考虑人工智能安全的时候,有两个不同的角度。

AI 和 AI 是相互有联系的考虑AI安全的两个角度。

Q:随着全球数字化进程,关键基础数据和设施进入互联、上云,对安全防御要求更高,人工智能对安全带来了哪些积极促进?

答:目前在传统的安全研究界,大家已经开始在拥抱人工智能带来的变化。

各个领域都在尝试用人工智能工具帮助做一些工作。

比如,能非常高效地审核代码。那么它可以完成初始的代码评估,寻找代码中的安全问题。这比以前的源代码扫描工具的效率要更高。

再比如,云服务商用人工智能的方法来检测是否受到了攻击,比以前的方法更准确。所以,各行各业都会受到人工智能的影响,需要研究如何利用人工智能来提高效率。

拥抱人工智能是保持竞争力必须要做的事情。

Q:人工智能发展迅速,带来便利的同时,一些消极、担忧的声音也无法忽视。现阶段AI对人类有什么样的安全影响?如何应对当下的安全挑战?

答:现阶段AI带来的冲击,有几点。

首先,它影响到了一些职业。比如游戏行业的原画师,还有像翻译人员,初级程序员等等。AI对于一些职业能很好地替代人类的工作。所以,对于这些职业来讲,需要有一些改变和适应。希望国家能出台一些政策,加以引导和管理,减小冲击。

第二,AI可能会带来一些信息管理的问题。训练这类大模型,需要大量的数据,这些数据可能会涉及到版权问题、隐私问题、以及保密性问题,所以对于数据的管理,需要有严格的制度。

第三,人工智能是从过去的数据中学习规律,但是这个规律很可能是不符合我们价值观的。所以,对人工智能做出的结论,我们需要认真评估,不是说就全盘接受了,要能够理解它做出结论的原因。很多人使用了会发现,AI经常会一本正经地胡说八道,所以对于AI,我们必须时刻保持一种怀疑和警惕。

防检测的软件_chatgpt怎么避免被ai检测_检测避免样本混淆

还有,就是AI的造假水平现在已经比较高了。AI创建的假图片,假视频已经能以假乱真了。比如去年有一位游戏设计师用AI创建了一副画作 “空间歌剧院 ”,在美国科罗拉多州博览会的艺术比赛中获得了第一名。

今年的索尼世界摄影奖单张图片创意类大奖,被黑白肖像摄影作品《电工,“伪记忆”系列》获得。

但是这张照片其实并不是摄影师拍摄的,而是由AI生成的。

AI创造的内容已经难辨真假,这带来了警察办案时的取证困难。还有一些人利用AI来进行诈骗。当你和一个好友视频通话的时候,可能对方是用了AI换脸,拟声的技术,这个看起来是你朋友,听起来也是你朋友的人,有可能是个骗子。有报道,上个月有人因为这样的一个骗局被骗了430万元。一旦涉及到钱,一定要小心谨慎,仅靠视频和声音来验证身份现在已经是不足够的了。

Q:无人驾驶事故、AI绘图的、甚至有人通过激活了,无论事故大小,我们身边围绕人工智能产生的安全问题不断涌现,对此您有什么看法?为了完善AI安全问题,急需采取哪些手段或进行哪些改变?

答:从技术层面来看,科学家和工程师们都在认真研究。比如英伟达开源了他们的“护栏”软件,可以帮助人工智能开发者构建信息和功能边界。它已经被应用到实际的产品开发中,目前看是起到了比较好的效果的。不过还有继续进步的空间。这会是一个需要长期坚持的过程。这个“护栏”,有点像是我们在科幻小说中看到过的阿西莫夫三定律,规定了机器人的行为准则。不过阿西莫夫三定律的描述是比较笼统的,在技术上没有直接实现的可能性,还是需要深入到细节里面,去规定AI的行为边界,这就是“护栏”这类软件的用处。

我们前面提到的AI造假问题,我认为需要为AI生成的内容打上水印,要有方便的检测手段,当这样的内容在被实际使用的时候,要有相应的提醒。这样来避免这些内容被用来做诈骗。

从法规层面看,我们需要对AI进行监管。在16号美国国会的听证会上,美国议员提出应该组建一个专门监管AI的新机构。的CEO,Sam 非常认可这一做法。

Sam 在听证会上提出在这方面的3个计划:

1)成立一个新的政府机构,负责审批大型AI模型。并对不符合政府标准的公司进行处理,包括吊销他们的AI“执照”。

2)为AI模型创建一套安全标准,用以评估其风险。AI大模型必须通过某些安全测试,例如它们是否能够“自我复制”或是“出逃(摆脱人类控制)”。

3)要求独立专家对模型在各个指标上的表现进行独立审核。

所以,总的来说,AI的发展需要加强监管,在监管的框架之下发展AI,应该是可以解决掉安全影响的。

Q:原来不担心是因为觉得AI做不到。如今再看”人工智能威胁论”,您有哪些新的看法吗?

答:人工智能的发展比较有意思。机器是在慢慢地做到原本认为只有人类智能才能做的事情。

早期,人工智能符号主义学派,对数学题的证明、走迷宫、下象棋这些事情做得很顺手。

但是这些事情机器能做了之后,人们不担心,因为人们发现机器只是在某些特定的领域表现好,它是利用机器的高速度搜索解题的空间。

后来连接主义学派的进展让人刮目相看,人工神经网络、深度学习,这些技术在原理上更加接近人的大脑。我们人类的大脑是经过漫长时间的自然进化生成的,而人工智能的进化不受自然条件的限制。

所以,我认为,坚持这条路走下去,人工智能的能力超越人类早晚是一定会发生的。

防检测的软件_chatgpt怎么避免被ai检测_检测避免样本混淆

那么,这种超越是不是威胁呢?我觉得并不是。

首先,人类的监管措施会保证人类的整体利益。

其次,人类会慢慢拥抱AI技术,提高自己的能力,成为新的物种。比如脑机接口方面的研究就是人类利用AI能力的一种探索。今后几百年,我认为人类会在AI的帮助下达到一个新的层次,比我们今天要进步得多。

Q:随着科技的发展,AI安全会超出网络安全、信息安全的范畴吗?安全领域的研究人员如何提前做好布局?

答:AI安全它本身就是一个交叉的学科,它会包含传统的网络安全、信息安全,也会包含人工智能本身的特点,还会包含像伦理学、社会学、道德等等其他的人文科学领域。

所以要研究人工智能的安全,必须各种知识都懂一些,不然就会缺少整体的视野。我比较鼓励安全研究人员多去拓展一下知识面。

Q:请您来讲讲咱们这本书(《人工智能安全:原理剖析与实践》),这本书可以怎么帮到大家,大家可以怎么更好更高效地利用这本书学习?

答:这本书的目的,是想给大家一个人工智能安全该如何研究的一个框架。让尽可能多的,有各种行业和知识背景的人对人工智能安全有一个整体的认识。

原先研究网络安全的人,他从书里能够获得从人工智能专业角度来研究人工智能安全的基本方法;原先研究人工智能的人,他从书里可以得到人工智能系统在信息环境中如何保证安全性的方法。

同时,像人工智能与社会、道德、伦理这些人文学科领域的关系,书中也会有所涉及。

所以,这本书比较适合作为一本入门人工智能安全的参考书,看完这本书之后,对人工智能安全有了整体的了解,再对其中感兴趣的领域深入研究。

当然这本书也适合想要了解人工智能安全基本情况,但并不准备深入研究的人,相信它也能启发很多对人工智能安全的思考。

▊《人工智能安全:原理剖析与实践》

王琦,朱军,王海兵编著

本书对人工智能安全的基本概念和框架进行梳理。第 1 章主要介绍信息安全和人工智能的基础性概念。第 2 章和第 3 章分别从人工智能信息系统安全和人工智能算法安全的角度,对人工智能安全的研究方法、研究手段进行详述,其中包含大量的真实例子、程序代码。第 4 章主要讨论人工智能辅助攻防新场景。第 5 章主要讨论人工智能安全生态。希望通过本书,传统信息安全和人工智能的研究者能快速进入这个领域,为人工智能安全的研究添砖加瓦。

本书适合关注人工智能安全的研究人员、工程技术人员、教师、学生等阅读。

(限时五折优惠,快快扫码抢购吧!)

发布:刘恩惠

审核:陈歆懿

 


如果喜欢本文
欢迎 在看留言分享至朋友圈 三连
<
 PAST · 往期回顾 
>
‍‍

从破解特斯拉安全漏洞引发的AI安全脑洞






© 版权声明

相关文章

暂无评论

暂无评论...