从chatgpt出发介绍人工智能行业 中国信通院端晨希:ChatGPT的伦理挑战

AI资讯9个月前发布 fengdao
21 0

继Alpha Go战胜围棋高手李世石后,对话机器人的出现再次掀起人工智能讨论热潮。是开发的文本生成式对话应用,具有强智能、强交互、广应用等特点。然而,以为代表的生成式人工智能给人类社会带来经济、法律、伦理等诸多挑战,本文主要从的伦理挑战为视角进行分析。

一、 人工智能伦理概述

伦理是人们相互关系的行为准则。人工智能伦理是关于人和人工智能相互关系的准则,是开展人工智能研究、开发、管理、供应和使用等科技活动需要遵循的价值理念和行为规范。

为符合实践需要,人工智能伦理形成以人工智能伦理原则为出发点的概念建构模式。

一是,多个国家和地区通过发布人工智能伦理原则的方式,阐述人工智能伦理治理的基本目标和要求。如国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理8项原则,丰富了人工智能伦理的内涵,提出了人工智能伦理治理的要求。

二是,国际组织通过发布人工智能伦理原则,推进人类共同理念的达成,促进人工智能领域的国际合作。如联合国教科文组织在《人工智能伦理问题建议书》中提出公平和非歧视、可持续性、人类的监督和决定、透明度和可解释性等10项原则,提出负责任人工智能发展的全球治理目标。

三是,科技企业形成围绕人工智能伦理原则的伦理风险治理体系。如微软提出负责任人工智能应当符合公平性、可靠性和安全性、隐私性和安全性、包容性、透明度和问责制6项原则,并围绕相关原则制定负责任人工智能的标准、开发相配套的技术工具。

二、的技术特点及风险

是由大数据驱动、大模型支持,并能广泛应用的人工智能产品。为减轻的伦理风险,开发了产品部署流程、基于人类反馈的强化学习( from Human ,RLHF)等管理和技术工具。然而,还是引发了人机关系的新挑战、放大了人类社会固有的伦理问题。

从“人——机”关系角度看,对人与机器的情感关系、人的劳动价值、人的主体意识等人机关系伦理形成冲击。虽然不属于强人工智能,但已在教育、金融、法律、游戏等不同领域展开丰富实践应用。同时,业界推测依托的大模型可能已经出现涌现能力( ),人工智能的发展走向更多未知,人机关系的协调出现诸多新挑战。一是,语言体系丰富、能够联系上下文进行对话、具备“角色扮演”功能的可作为陪伴者和用户进行实时互动,人类对机器产生情感和依赖的可能性增加,影响人的心理状态。二是,能够进行文字生成、代码生成、策略推荐等工作的引发人类对于劳动替代的忧虑,伴随开放API接口,更加丰富的应用场景和功能将可能对更多行业的从业者产生冲击。三是,智能机器的快速发展对人的文化创造产生冲击。能做到智能写诗,但却可能消解人的创作热情;在文本生成方面的误用滥用会将可能影响知识学习的过程,对人类智识的提高产生负面影响。

从“人——人”关系角度看,基于大数据训练的能放大人类社会固有的偏见,并可能因为技术滥用引发社会信任危机。一是,互联网数据记录了人类社会潜在的歧视与价值对抗,可能输出明显具有偏见的对话内容,不仅影响用户的判断,更可能因为大量文本的广泛传播应用,加深社会偏见。二是,选取出现概率较大的语料进行内容生成,模型为追求内容的准确性可能以丧失文化的多样性为代价,对人类社会的价值多样性形成挑战。三是, 具有强大的自然语言处理能力,能够“一本正经地说”,但由于其数据和算法限制,又有“胡说八道”的可能性。然而,为回应用户需求,能够批量生产大量虚构信息,且无法控制生成内容的误用和滥用。同时,合成文本相较图片、声音等更具传播优势,也更难判断其是否属于人工智能生成内容。对的误用和滥用将对人与人之间基于信赖的交往产生冲击。

图 1 特点(来源:官网)

三、 生成式人工智能伦理治理的未来展望

人工智能产品开发流程_人工智能科技出海服务公司_从chatgpt出发介绍人工智能行业

以为代表的人工智能技术发展可能将人类社会带入新的阶段,人工智能伦理治理的目标在于鼓励技术的良性发展,为可持续的创新提供保障。

企业发挥人工智能伦理治理的主体作用。企业在人工智能伦理治理中从伦理意识、机制设置、技术开发等方面发挥最基础和最主要的作用。一是,加强人工智能伦理治理意识。企业通过明确人工智能伦理原则、建立人工智能伦理审查机构、明晰人工智能伦理审查流程等,形成人工智能伦理治理从意识到实践的落地机制。二是,细化和完善人工智能产品的全流程管理。如企业可在设计研发阶段,即评估技术和产品的伦理风险;在测试阶段,将产品从封闭环境逐步引入开放复杂的社会环境,不断弥补产品伦理漏洞,将伦理风险控制在发展早期;在产品上线后,通过使用情况审查、速率限制等方法,减轻产品滥用可能性;最后,对伦理事故进行详细的回顾审查。三是,通过技术手段提升伦理治理能力。企业可通过开发数据偏见和公平性评估工具、模型安全评估工具等加强人工智能伦理风险的技术应对。

多主体参与人工智能伦理治理的合作机制。人工智能伦理治理是用户、企业、行业等多方主体的协作。一是,用户在与人工智能的互动中提出现实世界的问题,为产品优化提供数据,并通过对产品风险漏洞的讨论与反馈等协助生成式人工智能向善发展。二是,企业通过明晰人工智能技术缺陷、开源人工智能伦理治理工具等,为更多开发者提示人工智能产品的伦理风险,提供伦理治理方法和工具。三是,行业组织密切产业主体,通过团体指南、行业标准等方式推动行业对人工智能伦理治理共识的建立,促进行业自律。

加强国际合作应对人工智能伦理风险。技术发展的全球性给数字时代的人类带来机遇和挑战,人工智能伦理治理也成为国际治理合作的重要契机。政府间国际组织、国际学术团体、行业组织等在尊重各国、各领域人工智能治理的原则和实践下,推动形成以增进人类福祉为目标的国际人工智能治理框架和标准规范。

参考资料:

[1]白惠仁.科技伦理中的原则主义[J].道德与文明,2023,No.242(01):54-63.

[2]段伟文.人工智能时代的价值审度与伦理调适[J].中国人民大学学报,2017,31(06):98-108.

[3]翟振明,彭晓芸.“强人工智能”将如何改变世界——人工智能的技术飞跃与应用伦理前瞻[J].人民论坛·学术前沿,2016,No.95(07):22-33.

[4]陈小平.人工智能中的封闭性和强封闭性——现有成果的能力边界、应用条件和伦理风险[J].智能系统学报,2020,15(01):114-120.

[5]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(05):128-136.

[6]关于的介绍,

,最后访问日期:2023年3月3日.

作者简介

端晨希,中国信息通信研究院知识产权与创新发展中心研究员,专注于科技伦理、知识产权、竞争法等领域研究。

© 版权声明

相关文章

暂无评论

暂无评论...