chatgpt技术原理与应用 ChatGPT与数据合规初探(一)

AI资讯2年前 (2023)发布 fengdao
53 0

在数字化转型加速背景下,的问世无疑是掀起了新一轮人工智能浪潮,但其火爆背后也暗藏着数据安全和法律风险隐患。与任何一项新技术应用一样,在提升人类生活品质和工作效率的同时,其信息真伪、知识产权等法律风险也愈发受到关注。另一方面,不少人盯上了其热度想“搭便车”牟利,出现了大批“山寨”产品和账号转卖行为。

是一个非常复杂的系统,其最初功能定位是以贴近人类沟通的方式进行人机互动。随着用户的不断使用发现,除了能与用户进行正常对话外,甚至能够很好地完成代码、论文、短评、新闻、翻译、邮件等内容的创作,这也导致可能造成的敏感数据泄露风险。本文通过分析工作原理、应用场景和合规挑战,重点研究数据保护领域面临的数据合规风险。

基本工作原理

使用基于GPT-3.5架构的大型神经网络语言模型,通过强化学习进行训练。使用监督学习和强化学习的组合来调优,其中的强化学习组件使用了人类反馈强化学习(RLHF)的训练方法,该方法在训练中使用人类反馈,以最小化无益、失真或偏见的输出。通过连接大量的语料库来训练模型,强大的学习能力来自于大规模的、海量的文本数据训练,通过对其不断地监督学习、人工纠错、强化学习进行对话模拟,最终形成越来越接近于人类语言的语言模型。

应用场景

从上游增加需求来看,可以结合应用算力芯片、数据标注、自然语言处理等技术。对下游受益者需求来看,的应用场景还包括人机交互、搜索引擎、编写和调试计算机程序、文学、媒体相关领域的创作等。在某些测试情境下,在教育、考试、回答测试问题方面的表现甚至优于普通人类测试者。2023年2月8日,微软宣布推出由支持的最新版本搜索引擎必应。

截至2023年2月,这款新一代对话式人工智能便在全球范围狂揽1亿名用户,并成功从科技界破圈,成为街头巷尾的谈资。

应用原理是什么_应用原理什么意思_chatgpt技术原理与应用

面临的合规挑战

我们从的工作原理和应用场景中可以看出,在模型训练、优化以及用户使用过程中不可避免地涉及对个人数据、商业数据、知识产权等收集和处理。

基于RLHF训练方法中,用户输入和交互信息均有可能被用于其持续迭代训练。同时,具备了相当的推理演绎能力,可能从交互信息中获得更敏感的用户数据。此外,用户的输入信息还可能被用于为其他用户提供服务。在这类场景下,用户初始使用目的已发生了变化,根据《个人信息保护法》和GB/T 35273-2020《信息安全技术个人信息安全规范》,如果接收方超出个人信息主体原先同意的处理目的、方式和范围等处理其个人信息,接收方应当重新获得个人同意。这也就意味着,用户输入信息和在提供服务的过程中,将会构成数据共享风险,在个人使用和商业领域中将形成更多的数据合规和法律风险问题。

在辅助编程这一应用场景上,的应用可能也存在一定的安全隐患,生成的代码可能含有可被利用的已知安全漏洞。对于企业来说,虽然员工使用能够在一些工作上一定程度地提高效率,但由于并没有通过技术手段保障用户数据安全,且会对用户输入进行分析,故也可能造成敏感信息泄露风险。

除此之外,在涉及智力创造和知识产权问题上,例如将文本数据复制使用,可能触及作品版权、挖掘行为授权、二次创作许可、AI智力成果保护等,都存在争议。

如何应对数据合规风险

在数据保护合规领域,主要面临着用户个人数据处理、算法模型训练、技术不当使用等方面的风险。

应用原理什么意思_应用原理是什么_chatgpt技术原理与应用

涉及个人数据使用方面,承诺会从其使用的记录中删除所有个人身份信息,但并未说明如何删除。由于所有输入可能会被用于持续迭代训练,因此数据主体的权利主张可能都将的合规管控机制提出严格的考验。

算法训练技术方面,本质上是人工智能技术驱动的自然语言处理工具,同时还应用了AIGC技术。AIGC技术更需要关注虚假数据生成、不良数据识别等要求。

上海政法学院人工智能法学院副教授郭金兰告诉记者,我国算法行业在此前的标准制定时已经初步尝试了以场景和架构为基准的思路。

2018年7月,中国科学院软件研究所联合15家产学研单位共同编制首个国内人工智能深度学习算法标准《人工智能深度学习算法评估规范》。这一规范基于深度学习算法可靠性的内部和外部影响,结合实际应用场景,确定了由7个一级指标和20个二级指标组成的算法可靠性评估指标体系,做了场景化和精细化算法治理实践的有益尝试。

2022年出台的《互联网信息服务算法推荐管理规定》中明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。

中国国家新一代人工智能治理专业委员会于2021年发布的《新一代人工智能伦理规范》,提出将伦理道德融入人工智能全生命周期,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。欧洲、美国较早前也出台了类似的规范甚至法律。

2023年1月,美国NIST出台了人工智能风险管理框架,为人工智能合规治理提供了可落地的治理路径。

在未来如何进行监管与应对的问题中,郭金兰建议提到,“对这类生成式人工智能的监管必须将算法监管和数据监管结合起来。在算法监管机制的未来探索中,应充分考虑算法决策的主体类型和作用类别,探索场景化和精细化的算法治理机制。”

随着人工智能的逐步发展,相应的法律合规挑战只会持续出现。但作为互联网历史上增长最快的消费级应用程序,被潜在犯罪分子利用的无疑像一枚巨大的定时炸弹。下一期将继续介绍使用引发的网络安全威胁。

© 版权声明

相关文章

暂无评论

暂无评论...