一、背景概述
( Pre- )由致力于创造安全和有益的人工智能的研究组织于2015年开始开发,在2020年6月作为API(应用编程接口)发布,供开发者整合到他们自己的应用程序中。据统计,创下互联网最快破亿应用记录,平均每天约有1300万独立访客使用。作为一项人工智能算法应用,不仅具备传统算法的复杂、不透明等固有属性,还可能引入安全和隐私保护方面的风险。
作为第一个在大规模语料库上进行预训练的自然语言处理模型,它是一种预训练的深度学习模型,可以用于自然语言理解(NLU),自然语言生成(NLG)和自然语言推理(NLI)。开发目标是创建一个语言模型,能够对广泛的问题和提示产生类似人类的反应。为实现这一目标,使用了名为GPT(生成预训练转化器)的深度学习算法,在一个庞大的文本数据集上进行训练。该数据集包括各种来源,包括书籍、文章、网站和其他书面材料。它的功能也使其成为寻求便于网络攻击的恶意行为者的潜在工具,尤其在攻击脚本、插件等方面代码能有着不俗的表现,如:创建自动化攻击脚本、构建扫描工具、探测机器人、以及自动化生成各类工具扩展插件等。
二、内容分析
(一)网络安全方面
在网络安全方面的影响主要是降低恶意攻击者的攻击成本,具体表现在以下几个方面:
一是通过大量数据堆积形成一个具有问答属性的智能知识库,从而导致恶意攻击者获取知识的成本降低。用户可以在上学习漏洞相关理论知识点,同时使用生成该漏洞测试环境,进行漏洞利用模拟学习,从而降低了恶意攻击者获取知识的成本。
二是具有多种代码自动化编写能力,用户可以利用自动生成各类攻击脚本,从而降低攻击成本。用户可以对提出代码功能需求,让其创建自动化攻击脚本,降低了恶意攻击者的攻击成本。
三是通过大规模语料库训练,已经具备其特有的智能社交属性,从而降低了恶意攻击者获取信息的成本。可以用于与用户进行实时交互,攻击者可以利用伪装成合法的用户,通过与用户互动来实施社交工程攻击或其他欺诈行为。
(二)数据安全方面
一是默认所有数据均对外出境,数据存储方面存在数据隐私泄露风险。的训练需要使用大量的数据,在账户的注销声明中明确提到了,用户可以注销且删除账户信息,但会话中的敏感信息是无法删除的,会被后续训练使用,敏感数据也会被分享和三方存储,个人数据的定义也不完全按照CCPA和GDPR的定义进行分类,因此的使用将会带来很大的数据隐私问题。
我们从的用户条款(见图1)第九条声明中可以看出,所有的用户数据都会被转移到美国,显然是不满足国内法规要求。同时,从2月份开始微软和亚马逊于已宣布禁止公司员工向分享。微软内部的工程师也警告不要将敏感数据发送给终端,因为可能会将其用于未来模型的训练。
图的用户条款图
二是在使用过程容易造成数据泄漏。目前对于用户的使用基本没作限制。也就是说,用户可以非常任意和开放地使用。因此,用户为了完成某项任务或达到某个目的,在使用过程中,可能会输入一些敏感数据、商业秘密甚至是机密信息,稍不留神,就会造成数据泄漏。正如微软的高级程序员所担忧的一样,数据一旦输入,就会被收集和使用,输入的数据亦不能删除和修改。
硅谷媒体报道,亚马逊的公司律师称,他们在生成的内容中发现了与公司机密“非常相似”的文本,可能是由于一些亚马逊员工在使用生成代码和文本时输入了公司内部数据信息,该律师担心输入的信息可能被用作迭代的训练数据。
因此公司员工应谨慎使用,尤其是不与共享机密信息。数据安全对于商业也是至关重要的,因此与商业机密有关的敏感信息必须得到保护,以防止未经授权的访问或披露。
三、启示建议
对于网络攻击的实施降低了一定的难度和门槛,企业和个人均需加强对数据安全的意识和保护措施,尤其是对监管工作提出更高的挑战,建立完善的网络安全体系,加强模型监管和评估,了解相关法规和监管政策,我们应密切关注的应用,确保其不会违反道德或法律标准,并确保数据隐私得到妥善保护。同时,也应该加强与政府、学术机构和产业界的合作,共同推进技术的发展和应用,构建更加安全、可靠、高效的数字世界。另外,我们可以尝试制定相关的法律法规和伦理准则,规范的开发、使用和传播,并建立有效的监督和审查机制,防止被用于非法或不道德的目的,加强对的安全性和可靠性的测试和评估,确保其不会对人类环境造成危害,建立责任制度,明确和其他人工智能工具的开发者、使用者和受益者的权利和义务。
四、总结
作为一个优秀的AI产品,合理的利用必然会提升我们的工作效率,在其隐私安全并不是非常完善的情况下,还是要注意自我保护,本文结合的使用现状结合我国安全领域的法律法规体系,探究了对网络安全和数据安全的影响。总而言之,在网络安全方面的影响主要是提升恶意攻击者的攻击能力,降低恶意攻击者的攻击成本。在数据安全方面的影响主要是在使用会存在一定的数据隐私风险,的数据默认出境,现阶段的开发者并未对数据形成有效的保护措施数据,容易引发数据泄露等相关数据安全问题。