吕乃基
本系列之前的4篇:
——一个创新案例的分析
一、2.乃市场竞争之果
二、有“特色”的资本
三、巨量需求在短期甚至瞬间如海啸般涌入,难道不是最大的伦理? –
1.技术爆炸
技术爆炸,是《三体》中众多炙手可热的词汇之一,放到问世后,从供给侧到需求侧,从业界、商界到普罗大众所掀起的应用和再创造,以及同行之间展开竞争热潮,恰如其分。只是“爆炸”的不仅是技术。
“我一生中从未见过,至少在我从事科技行业的30年中,发生在美国西海岸的先进科技在几个月内就以非常真实的方式出现在印度农村的某个人身上。”微软首席执行官萨蒂亚·纳德拉(Satya )感叹,“这是我从未见过的技术扩散。”
短短两个月,人们源源不绝地挖掘的更多技能,包括替写代码、作业、论文、演讲稿、活动策划、广告文案、电影剧本等各类文本,或是给予家装设计、编程调试、人生规划等建议。
在出现之前,人工智能大多是针对特定的场景应用进行训练,生成的模型难以迁移到其他应用,属于“小模型”范畴。整个过程不仅需要大量的手工调参,还需要给机器喂养海量的标注数据,这拉低了人工智能的研发效率,且成本较高。只能应对有限特殊的领域,不能迁移,更不能适用于普遍的场景,这是业界对人工智能现状的一大诟病。
大模型通常是在无标注的大数据集上,采用自监督学习的方法进行训练。之后,在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练, 就可以满足新应用场景的需要。这意味着,对大模型的改进可以让众多小模型受益,大幅提升人工智能的适用场景和研发效率,因此大模型成为业界重点投入的方向。 GPT 3 大模型在翻译、问答、内容生成等领域的不俗表现,让业界看到了达成通用人工智能的希望。当前的版本为GPT 3.5,是在GPT3之上的调优,能力进一步增强。
大模型及其带来的普适性,是技术之所以“爆炸”的依据。
2.在“纵”与“横”的交叉点上
360董秘表示,“在此之前,大家对于能用通用AI来做专业的事情心里是没有根的,大家更多做垂直领域或者更专业的AI,用更专业的数据模型去训练人工智能,去做一些专业领域的事情。”
这位董秘说到了“垂直”,多位业内人士在不同场合也都用到了这个词汇。
产业可以有各种分类,如一二三产等,“纵横”也是一种分类。“纵”,就是垂直,指二产特别是制造业的大部分行业,大多有从源头到终端用户上下游的产业链,或者说由1-100众多环节构成。“横”,包括没有或较少加工,直接面向众多用户的行业,如能源和交通运输业等。上世纪后期出现的互联网孕育了一众互联网巨头,作为“平台”,服务于各行各业,也可以归入“横”的一类。不过,横,不是一维的线,也不是二维的面,而是三维的体,拥有自身的技术层次,因而是有厚度的面,故曰“平台”。
芯片业显然属于制造业,却与一般制造业的“垂直”有所不同,芯片产业链的上下游短。芯片作为各行各业的基础,更是一种“横向”的底层技术,应用于各类或纵或横的行业。其他行业就像“长”在芯片上的植株,垂直于横向的芯片业。如果有什么行业如今还没用到芯片,那是因为该行业尚未成熟;正如马克思论及数学在科学中的地位和作用一样。
横空出世,支持更多垂直领域,“垂直”一词,道出了本身的“横向性”。不同于互联网平台,后者所起的主要是沟通和互联,而起到如芯片在360行的作用,数学在科学中的作用,是一种基础和普适的横向性。
可以说在一切按某种目的,需要收集、比较、转换和汇总当下知识、图像、音频和视频,进而加以分析、综合与展望的事项和领域,都可以大有作为。增强了大模型的指令学习能力和用户意图捕获能力,解锁了大模型的泛化能力。从互联网层面看,可以作为信息入口,与搜索引擎相结合;从文案办公方面看,可以与办公软件相结合,增强人的办公效率;从人机交互角度看,体现的是一种基于语言的自然交互方式,可以与元宇宙、数字人结合()。
大致由3层组成。底层是预训练模型的技术基础设施。由于预训练模型的高成本和技术投入,具有较高的进入门槛。
中间层,即垂直化、定制化、场景化、个性化的模型和应用工具,实现在不同行业、垂直领域、功能场景的工业流水线式部署,同时兼具按需使用、高效经济的优势。
应用层,面向C端用户的文字、图片、音视频等内容生成服务,最终和用户的需求无缝衔接起来实现产业落地。
底层、中间层和应用层三层表明,“横”的有自身的厚度,不是二维的面,而是三维的体。
“人工智能的发展,现在所缺的是怎么跟行业更紧密的结合。”邬贺铨院士说。一方面,从事人工智能技术开发的企业不了解产业需求,另一方面,实体产业的专家没有那么高的水平开发类似这种大模型。
“横”着的不需要“精准的”市场定位,的普适性对用户来者不拒;前来“接种”的形形色色的用户发现,横置而开阔的总有一款经场景化改造适合于我。各垂直的行业纷至沓来,先在宽阔普适的“面”寻找立足点,继而在有厚度的扎根生长。垂直公司的业务场景向下在大模型扎根,汲取营养,溯源基础,利用进行创新;向上为客户提供价值增量。反过来,垂直行业也就搅动了,从体验、问题、资金和数据等方面反哺,使之更为丰富而适应和回应多样化的问题和需求,从而构成纵横之间的良性循环。
譬如游戏产业,坐拥30亿玩家、拥有近2000亿美元总产值的大盘子,与结合而腾飞。业内人士特别关注到ChatG-PT对代码写作和内容创作的重要性,作为一种生产力工具,能够提高内容产量。游戏业反过来帮助乃至生成式人工智能克服缺资金、缺人气的“死亡之谷”难题。。
未来的数年到数十年内,“接种”到的行业、机构,各个细分的专业部门和用户,都可以将整合到自己的产品和服务当中。包括生成应用和布局、搜索和数据分析、程序生成和分析、文本生成、内容创作,以及一般推理等领域。
在加持之后,所有相关领域大致将经历“科研、算力、基础架构、工程、数据、解决方案”这个循环(或其中的若干环节)的快速迭代,凸显流动性和创新性,并形成高潮。往往新成果尚未稳定成形,更新的设想和可能性已接踵而来。以致“很难等到科技封装好,把这些知识全部屏蔽掉(黑箱化,参见:科技黑箱——技术知识的存在方式),再去打磨产品”。未来在竞争中获胜的,将是很好地“解决了产品化和科研及工程创新之间平衡”的团队。团队需要更好的接纳和消化这种“流动性”或“过程性”。
“你在使用第一版演示版的时候,会产生一种非常深刻的反应:‘哇,真是不可思议,我已经迫不及待了’。但在用过一百次之后,你就会发现它的缺点。”联合创始人兼首席执行官山姆·阿尔特曼(Sam )实话实说。
显然,产业哲学的关键是“纵”与“横”的接口。是否会有更多行业和更多人来用“100次”,以及发现缺点后,能否及时改进。商业化整体仍处于起步阶段,部分文本、图像等生成的公司主要以辅助生成内容服务为主,还未全面进入到单一产品的市场化和商业化阶段,尽管有部分公司已经进入AIGC开发阶段,但也还处在免费试用、获取流量阶段。
可以接轨的不仅是公司、机构,还有个人。
语音搜索应用“出门问问”的创始人李志飞表示,“为AI行业带来了一种新的商业模式可能性。此前,AI企业的收费模式更多的是To B收费制,可复制性差,缺乏网络规模效应,边际成本不可控。但的出现,让人们看到了AI技术直接赋能C消费者的可能性,通过给中小企业或个人提供AI工具或服务,也可能获得认可并取得收益。”
另一种情况是,不是直接应用,而是借鉴其思路。
产业互联网因用户的特殊性和场景的多样性而成本高企,难以有规模效益,令服务商止步,如果将这种生成式的AI技术应用在工业领域,是否能够深度挖掘数据价值,为工业智能化带来更多便利,有可能掀起一场更为深刻的“工业革命”。
以“工业知识+AI交互(类似于)”的融合模式具备更强的专业性和准确性。一方面,由工业领域图谱、行业标准、专利、专用词典等集成起来的大型数据库和机理模型,提供了强大的底层支撑;另一方面则是基于AI技术形成的大规模预训练语言模型的应用,两者结合共同形成了“工业AI”的“最强大脑”,让智慧问答更精准、更专业、体验更强。
的工作方式也与很类似。通过学习氨基酸如何组合成2.8亿个现有蛋白质的语法,学会了如何生成新的蛋白质。
近水楼台先“得月”,先对业内开刀。微软CEO纳德拉表示,在全部产品全线整合,当然也包括Bing(必应)。与此同时,微软公司宣布,将在2023财年第三季度大规模裁减1万个工作岗位。竞争对手各谷歌的裁员是1万2。
微软可能会将整合到Word、、等应用程序中,此举可能会改变数以亿计人的工作方式。
海啸迅速波及业内其他领域,大厂纷纷逃离XR元宇宙。
微软刚成立四个月的工业元宇宙团队( Core)已完全解散,该团队百名成员被解雇。Meta旗下的类元宇宙游戏平台宣布将于2023年3月3日关停。
库克表示:“我一直认为人们了解某样事物是什么很重要。我真的不确定普通人能明白什么是元宇宙。”他指出,苹果公司在很大程度上避免使用元宇宙这个词。2月16日下午,有消息称,腾讯宣布部分解散XR(扩展现实)团队。此时距离XR业务线成立,不到8个月。
曾经大热的元宇宙或将陷入死亡之谷,这次主要不是自己的技术不过关,而是的光辉太盛,此消彼长。强光光圈之外,一片漆黑。关键是脚踏实地,切实解决问题,而元宇宙在相当程度上还是悬在空中的概念。而把“元宇宙”作为新GDP增长的中国许多省市也将受此影响,包括各地诸多“元宇宙”产业园区等等。既然是因为的“强光”所致,也就意味着元宇宙自身未必一蹶不振,而是仍有发展前景。元宇宙概念本身模糊不清,既是发展的硬伤,又蕴含着发展的空间。实际上,的发展也将有助于支撑、充实和推进元宇宙。
3.发散,还是收敛?
一片叫好声中,仍然面临科技和伦理的诸多挑战,有大量评述,此处仅稍提及。
目前大模型的算力消耗非常庞大,训练大模型消耗的计算量,每3、4个月翻一倍。要实现大规模真实场景应用,模型轻量化技术需要进一步探索;另类摩尔定律呼之欲出。
深度
中科大校友认为,是大规模暴力预测模型加。这种差别的原因是非常执着的追求AGI,属于大力出奇迹,但这并不代表一定比更先进。
GPT-4可能是第一个以稀疏(联系阿法狗的“暴力”,通过蛮力搜索到最优解,以及“价值”,《用深度神经网络和树搜索掌握围棋游戏》)为核心的大型AI模型。稀疏模型使用条件计算来降低计算成本——并非AI模型中的所有神经元在任何给定时间都处于活动状态。该模型可以轻松扩展到超过万亿个参数而不会产生高昂的计算成本。稀疏模型还可以更好地理解上下文——它们可以根据用户提供的内容保留更多的“下一个单词/句子”选择。因此,稀疏模型比它们的前辈更类似于实际的人类思维。大模型的效果虽然令人惊艳,但李笛认为,通过将其拆解为更小、更轻量的步骤训练,依然能达到殊途同归的效果。
Meta也不甘寂寞,反过来介入生成式人工智能,最新成果是,仅用约1/10的参数规模,实现了匹敌 GPT-3、 、谷歌PaLM等主流大模型的性能表现。有朝一日,也许能在笔记本电脑乃至手机上跑类功能的语言模型。可以联想到从大型机到个人电脑到手机的过程。LLaMA模型和权重开源开放。
高速发展的生成式人工智能和剧烈的竞争,也对芯片等硬件提出更高要求。
近年来,在IT业,竞争初期领先一步,因用户习惯,沉淀成本,用户之间以共同的版本(标准)沟通和交流,软件商跟风追捧形成生态,可能步步领先,最终形成垄断和某种“中心化”。目前看来,虽然似乎先行一步,但缺陷也暴露在光天化日之下,先克服缺陷者依然有机会后来居上。领先且一时无可挑剔,会迅速收敛而走向垄断,有利于领先的公司而不利于市场;领先而存在缺陷,会继续震荡,领先公司不能松气而市场充满活力。围绕的竞争方兴未艾。
山姆·阿尔特曼谈论AIGC未来的商业化前景时提到四个方面:(1)API接口开放的To B业务,包括客服工作助手等等;(2)颠覆过往逻辑的“超联想”搜索产品,完成所有想象中的制作;(3)垂直的专业性服务,最大程度磨灭信息不对称导致的供需不平等问题;(4)面向C端的休闲娱乐、人机互动和大众工具的载体。阿尔特曼的新版摩尔定律是,宇宙中的智能数量每18个月翻一番。
还有业内人士提及与区块链结合AI提高效率,区块链确保知识的真实,产权归属,人际公平。
上一篇:三、巨量需求在短期甚至瞬间如海啸般涌入,难道不是最大的伦理?
下一篇:管窥(上)——产业哲学的视角(合集)