ai大白话软件 当AI作品频频站上竞赛舞台

AI资讯1年前 (2024)发布 fengdao
31 0

当AI作品频频站上竞赛舞台

法治周末2023.12.2111:29

智道

栏目主持人:於兴中

人工智能创作应当保持透明。参加比赛或投稿期刊的人工智能作品应当准确披露其创作方式与过程,包括适配与创作的过程。透明地披露伦理要求有助于促进公平,从而在一定程度上缓解技术知识和能力造成的鸿沟

□朱悦

人工智能正在创作出越来越多的优秀作品。最近,清华大学教授沈阳用人工智能(AI)创作的小说《机忆之地》在江苏青年科普科幻作品大赛中获得二等奖。这不禁让人想起,不久之前,人工智能创作的绘画《太空歌剧院》也在美国科罗拉多州艺术博览会中获得一等奖。此外,完全由人工智能所生成的研究论文,也越来越多地在国内外学术刊物上刊出。诚恳而论,这些作品固然谈不上顶尖,但足以让人赞叹一句“不错”,甚至是“很好”。

随着人工智能创作的作品质量和数量不断上升,引发的争议和纠纷也越来越多。举例而言,北京互联网法院刚刚一审判决生成图像的著作权归属争议,随即又有4名创作者联合起诉一家人工智能工具的主体公司,原因是该人工智能工具涉嫌使用其原创作品进行训练。

ai大白话软件_白话发音软件_白话软件哪个好

人工智能创作发展迅速

人工智能的创作过程主要包含三个环节。一是人工智能模型使用数据进行训练。二是创作者对模型进行适配,包括部署、微调和对齐。三是创作者使用模型进行创作。需要说明的是,文本、图片、视频和音乐的生成模型在技术原理上有一些差别,但思路是相似的。以下主要使用文本生成模型展开叙述。

先说训练。选好要使用的人工智能模型以后,就要用数据来训练,也可以说“投喂”。通常来说,因为训练的数据量很大,不可能一次训练完整,这个过程需要采取很多策略。比较重要的有至少五点。一是数据要预先清洗处理。二是数据要分成一小批一小批地送给模型训练。三是控制模型从每一批数据里学习的速度,太快或太慢都不合适。四是对人工智能学到的内容做一些约束和控制,比如说做一些裁剪。五是数据有时候还得反复学,不只学习一轮。策略的选择一般来说是工程问题,目的都是让模型能力更强。这些策略常常也和伦理与法律有关。

再说适配。刚刚训练好的模型已经是很有潜力的“毛坯”,要投入使用,则还需要通过适配来打磨。适配主要包括部署、微调和对齐。这一步通常是由训练模型的厂商来做,有技术知识和能力的创作者也可以自行完成。部署主要是通过压缩等方式来降低模型的运行成本。微调能让模型的创作过程更好地适应具体的领域和需求。对齐则是可以让模型的价值偏好和创作者保持充分的一致。

最后是创作。对于大部分技术知识和能力有限的创作者来说,主要是在和人工智能直接交互的过程中,不断探索和调整作品。这一步骤通常称之为提示。提示既可以是简洁的大白话,也可以引入相当复杂精致的技术。无论是简单地向人工智能提出要求,还是利用交叉计算机科学、心理学等多个学科的知识来引导人工智能当中莫测难明的情绪,都关系到最后作品的质量。不同的提示方式还可以彼此打包组合,从而引出更加丰富多变的作品。新颖的提示不断出现,随即成为创作者熟习的窍门。

总之,人工智能创作的每个环节都包含十分丰富的内容,也都处在迅速的发展当中。

参赛投稿重在规范边界

人工智能作品参加比赛、投稿刊物是否符合伦理?笔者认为,只要人工智能确实能够创作出很不错,甚至是优秀的作品,没有理由对其大加挞伐。如果人工智能未来展现出更加优秀的创作潜力,应该加以赞扬和鼓励。与此同时,人工智能创作也有一些基本的边界,主要是遵循人类尊严、保持透明和促进公平这三项原则。

先看整体的方向。无论是艺术比赛,还是学术期刊,最重要的价值之一都是挖掘和发表优秀的作品。如果人工智能确实创作出了优秀的作品,那就应当授奖和刊载。而如果人工智能的创作主题和内容逾越了伦理甚至法律的边界,或是人工智能的创作者在作者身份和创作贡献上不够诚实,则应当受到伦理的批评。尽管如此,这些批评针对的是边界的规范,而不是否定创作本身。

白话发音软件_白话软件哪个好_ai大白话软件

再是具体的边界。为了确保人工智能在带给人类更多美好作品的道路上始终驱驰向前,而非有意越轨,有必要将保证尊严、透明和公平作为约束。人工智能在创作中尊重人类尊严,意味着不得创作反人类立场的题材或内容。就此,对人类作者如何要求,对人工智能就该如何要求。人工智能模型的对齐有助于保障这一价值不折不扣地实现。

人工智能创作应当保持透明。参加比赛或投稿期刊的人工智能作品应当准确披露其创作方式与过程,包括适配与创作的过程。透明地披露伦理要求有助于促进公平,从而在一定程度上缓解技术知识和能力造成的鸿沟。

著作权问题最为紧迫

就人工智能作品参加比赛、投稿刊物背后的法律问题而言,最紧迫的问题都和著作权有关。一是人工智能训练的过程是否侵犯著作权。二是创作的作品是否享有著作权。这些问题都要放到整体的创作过程、具体的工程细节中去理解。同样值得关注的还有个人信息和数据权益的保障问题。

先说训练过程是否侵犯著作权。此处存在两种思路。一是直接的思路:对照代码实现,逐步分析数据训练的过程是否构成不当使用他人作品。二是间接但更加普遍的思路:考虑接触他人作品的机会大小和创作作品的相似程度,综合判断是否构成不当使用他人作品。

无论如何,训练过程中的五方面工程细节都会直接影响问题的答案。数据如何预处理,特别是是否去重;数据分批的大小,逐批训练的方式;学习率的大小,每一批学习的速度快慢;是否裁剪,裁剪的严格程度;学习的轮数,轮数截止的条件。每一步都要仔细加以考虑。只有解析数据的逐步变化,才能对“使用”和“相似”形成足够深入的理解。

再是创作作品是否享有著作权。此处主要考虑两点:一是智力的投入;二是独创性的有无。鉴于创作者一般很难自行训练模型,问题最终还是落到如何评价适配和创作过程中展现出的智力投入和独创性。就此,适配和创作过程中的诸多细节同样会实质的影响问题的答案。比如,微调数据如何得来,又是如何制备,具体微调方式;使用提示的数量、复杂程度、独创程度,是借用已有提示,还是自行组装发挥,抑或搜索优化,等等。同样地,每一步都不能遗漏。只有在整个技术社群不断发掘、归纳和分享适配技巧和新颖提示的氛围中加以理解,才能切身感受“投入”和“创造”。

最后的个人信息和数据权益的保障。尽管探讨的是相当不同的权益,适用的也是相当不同的法律,基本的分析思路和结论依然可以类比。模型的数据训练过程是不是侵犯了个人信息或数据权益?模型本身及其创作结果是否依然属于个人信息,其上或有的数据权益如何配置?前者的讨论很难脱离训练的每一步骤的具体方式。后者的结论系于每一环节受到认可的“(数字)劳动”的多寡。

无论是人工智能创作的数量和质量,还是伦理和法律的分析结论,都有广袤的讨论空间。借助人工智能这一工具,开拓艺术和学术的前沿,在人类想象力和智力的边界处搜寻空白模糊之处并加以填补,值得期待。而将训练、适配和创作纳入伦理和法律的视角,理解人工智能每一项架构、参数、部署和提示的伦理和法律意义,从而迈向原生的人工智能向善,无疑也是值得展望的。

(作者系同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员)

© 版权声明

相关文章

暂无评论

暂无评论...