一、著作权:人工智能生成的内容,是否构成享有著作权的作品?
回答:
1、从表现形式看,如果源自人类的相同内容都不属于作品,则该内容源自于人工智能,也不可能被认定为作品。
2、从创作过程看,人工智能生成内容的过程并不涉及创作所需的“智能”——基于创作理念驾驭创作活动,展现作者独特的个性和情感,甚至是稍纵即逝的灵感——也不具备传统意义上的创作过程。
3、从立法目的看,著作权法的立法目的是鼓励作品的创作,无论是动物还是机器,都不可能因著作权法保护作品而受到鼓励,从而产生创作的动力。传统的著作权理念认为, 只有人才能创作作品。
4、从作者界定看,能否将人工智能的研发者或使用者“视为”创作者呢?如果内容产生的过程并不属于“创作”,相关内容并不是“作品”,通过法律的拟制将“未参与创作者”视为作者也无从谈起。
美国版权局在今年3月16日发布的《版权注册指南》中,明确指出,“根据对生成式人工智能技术的理解,用户对于输出的内容不具有创作性贡献和控制,应当拒绝版权注册申请”。同时,强调“若希望注册包含类产品生成内容的作品,申请人不仅需要论证自身在整体作品中的创作性贡献,还需要标明作品中哪些内容(部分)是由人工智能所生成的,以备进一步的审核。
综合以上分析,人工智能生成的内容在著作权法中无法被视为“作品”,也不具备著作权保护的资格。同时,应注意区分AI“自动生成”的内容与AI“辅助创作”的内容,后者如果能够体现自然人的创作性贡献于其中,能够传递创作者的思想、感情,构成独创性表达,则属于作品。
二、隐私保护:生成式人工智能是否收集用户的个人信息?生成式人工智能是否会将用户的信息分享给第三方?(以为例)
回答:
1、根据制定的《 Data 》(数据处理协议),将其与用户的数据法律关系界定为,用户是确定用户数据的处理目的和方式的人(“数据控制者”),根据数据控制者的指示、并代表数据控制者(作为“数据处理者”)处理用户数据。
2、在隐私政策中明确,其收集的用户个人信息包括:帐户信息、用户内容(即用户提供的输入、文件上传或反馈中的个人信息)、沟通信息、社交媒体信息、日志数据、使用信息、设备信息等等。会向供应商和服务提供商(包括托管服务提供商、云服务提供商和其他信息技术服务提供商、活动管理服务、电子邮件通信软件和电子邮件新闻通讯服务以及网站分析服务)、关联公司等提供用户的个人信息。
3、 承诺维持行业最佳实践,采取有效措施管理第三方引起的数据安全风险(包括 的次级处理者或分包商)。这些措施包括签署书面合同,以确保任何代理商实施合理和适当的保护措施保护用户数据;对供应商进行安全评估:所有第三方接受由 安全团队实施的供应商评估审计。
三、法律责任承担:如果生成式人工智能生成的内容含有不实、侮辱性或歧视性言论,谁来负责?
回答:
参考《生成式人工智能服务管理办法(征求意见稿)》的规定,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。提供者对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。
可以预计,随着监管规定的趋于成熟与完善,生成式人工智能产品或服务的提供者和对生产内容的利用发布者,都应承担相应的法律责任。
四、透明度:是否有足够的透明度来了解生成式人工智能生成内容的创建方式和训练数据集?(以为例)
回答:
1、是通过大规模的机器学习算法进行训练的,其创建方式涉及到算法的设计、参数的设置、训练数据的选择等多个环节。
(1)2018 年, 发布了1.17 亿参数的GPT-1。在论文中, 并没有公布模型训练数据集的来源和内容。
(2)2019 年, 发布了拥有15 亿参数的语言模型 GPT-2。GPT-2 论文阐明了所用训练数据集的大小,不过并未说明其内容。而 GPT-2 模型卡(model card)(在 GPT-2 仓库中)说明了模型内容。
(3)2020年,发布了GPT-3 模型。论文阐明了所用训练数据集的 token 数量,但训练数据集的内容和大小尚不清楚( Crawl 的数据集大小除外)。
2、的训练数据集来自于互联网上的大量文本数据,包括网页、新闻、社交媒体、博客等多种来源。数据集的大小和质量直接影响着生成内容的准确性和可靠性,但我们也无法获得完全透明的数据集信息。
3、虽然公开了一些信息,但是并不足以让监管部门完全了解生成内容的准确性和可靠性。这对于监管部门来说是一个挑战,在制定相关法规和政策时需要更加谨慎和周到。同时,等生成式人工智能也应该积极主动地提供更多的信息,以增强其透明度,提高其社会责任感和公信力。
五、道德准则:生成式人工智能生成的内容是否符合道德准则?是否有必要制定使用的伦理标准?
回答:
1、作为机器人和AI模型,生成内容并不具备道德意识和判断能力。因此,在某些情况下,生成的内容可能会包含不合适、失礼、甚至是不道德的内容。
正因如此,有必要制定使用的伦理标准和规范,以保证它所生成的内容符合一定的伦理准则,避免损害他人的利益或造成社会问题。例如,可以规定在处理某些特定主题或领域时,必须严格遵守相关的法律法规和道德规范,需要审查和审核其生成内容的质量等。同时,还需要对使用者进行教育和引导,让他们了解何时应该依赖,并警惕依赖带来的安全隐患和风险。
2、仍以《生成式人工智能服务管理办法(征求意见稿)》为例,其中规定提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗;并且提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销;提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
六、监管法规:如果未来出台相关法规,应重点规制哪些方面?
回答:
1、隐私保护:在使用生成式人工智能过程中,可能会涉及用户的个人信息和隐私,因此需要明确规定如何保护用户的个人信息和隐私,在数据收集、存储、处理和分享等方面应该有明确的规范。
2、恶意使用防范:生成式人工智能可以被用于各种不同的场景和目的,包括但不限于虚假新闻、骚扰、诈骗、色情内容等。因此需要规范使用生成式人工智能的行为,禁止恶意使用生成式人工智能从事违法犯罪活动或侵犯他人权益的行为。
3、透明度与可解释性:生成式人工智能的决策过程和输出结果都应该是透明的,并且能够解释清楚。这可以让用户更好地理解机器学习系统的工作原理和结果,同时也可以促进对生成式人工智能的信任和接受度。
4、责任与追溯:的使用和输出结果可能会对用户产生重要影响,因此需要规定机器学习模型开发者、训练数据提供者和模型使用者的责任和追溯方式。同时还需要规定出现问题或错误时的处理流程和责任划分。
参考文献:
1.王迁.论人工智能生成的内容在著作权法中的定性[J].法律科学(西北政法大学学报),2017,35(05):148-155
2.国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知.
3. .
4. Data .