人工智能chatgpt需要多大的内存 ChatGPT 凭何强大?透视支撑其性能背后真实的算力秘密!

AI资讯1年前 (2023)发布 fengdao
29 0

一经问世便引燃了人工智能领域的新热潮!借助文字方式对话问答, 可以快速基于用户的问题,完成包括自动文本生成、自动摘要等相对复杂的语言工作,逼真程度令人惊讶。也正是因为其强大的功能,上线不到两个月, 的全球活跃用户就突破一亿大关。如此惊人的增长速度,不说后无来者,起码在短时间之内这一纪录应该很难被打破。

但是同时,我们也不乏听到有担忧的声音出现:若连创意创作都已经无法阻拦人工智能,以后岂不是万千行业都要被彻底颠覆与重构?但归根到底,还是那句老话:没有强大和经济的算力,一切都无从谈起!

正如亚马逊科技首席执行官 Adam 所言:“生成式 AI 有可能会改变整个产业,但是它所需的成本和专业知识,使得除了少数几家公司之外,几乎所有公司都无法使用这项技术。”

亚马逊科技,探寻算力突破

现在,正是算力爆发的时代。以 等 AI 大模型的发展为例,其算力需求大致是每两个月就会增加一倍。这样的增长要求,即便是实现了翻倍的摩尔定律也难以企及,更不消说巨大的成本需求。

据测算, 的单次回复至少要花费1美分。在未成为“爆款”前,满足当时100多万用户的需求,公司每天至少需要10万美元运行成本。然而当用户数高达数亿之后,每年的成本支出就将超过50亿美元。在这种情况下,想要成百上千倍地提升算力,必然需要全新的算力平台。

而亚马逊云科技正在全力探索算力的创新与突破。2月28日,市场调研机构 最新公布的服务器 CPU 报告显示,亚马逊云科技3.16%的市场份额较2021年提升了近一倍。“星星之火,可以燎原”的例证,实际上在计算领域也是被一再验证过的。亚马逊云科技的 没有对外出售,完全用于对外提供云服务,为云计算带来更加普惠的算力。

在亚马逊云科技 2022 re: 全球大会上,亚马逊云科技自研的基于 Arm 架构 CPU 芯片 发布了增强的第三代版本 ,并将之用于更多的计算实例。 不仅仅是 EC2 的基础,也是亚马逊云科技托管服务如容器等的基础,在使用这些服务的时候,也可以享受到 带来的性价比提升。

尤其值得称道的,是亚马逊云科技正在不断提高针对 ML(机器学习)场景的 芯片,在其产品和服务中的渗透率,使其扩展为使用内部加速器支持基于 ML 的实例,这代表着从通用计算向特定工作负载的转变。

机器学习正在深刻影响,并且推动着关乎我们工作和生活方方面面的突破。从传统企业到创新企业,每一家公司都在使用机器学习技术解决生存与发展的相关问题。

人工智能chatgpt需要多大的内存_win764位需要多大内存_64位系统需要多大内存

自研芯片,加速人工智能落地

“不管是智能语音、自动驾驶,抑或是最近火热的 AI 绘画,所有的 AI 发展都使得机器学习模型变得越来越复杂。”在日前的一场交流中,亚马逊云科技的技术专家这样表示。

过去几年里,模型的规模不断扩充,参数更是从数亿增加到数千亿个之多,训练和部署这些日益复杂的机器学习模型的高成本,正在将很多企业,尤其是小型创新公司拒之门外。

从2017年起,亚马逊云科技的工程师团队就注意到这样的趋势。在他们看来,如果不去尽快满足客户的需求,那么机器学习带来的高昂成本,很快就会成为客户不能承受之重。

为此,在芯片的设计和构建方面,亚马逊云科技推出了譬如 系列、 、 ,以及 Nitro 系统等自研芯片。

机器学习的芯片差不多每两年或每几年就会有一倍或数倍的提升,但仍然不足以跟上训练模型复杂度的提升。替代的解决办法就是利用分布式多处理器,通过一个网络进行协同计算、协同训练。亚马逊云科技专门为云中高性能模型训练而搭建的 Trn1 实例最多可以搭载16颗专门用于机器学习训练的 芯片,512GB 加速器内存和 的网络带宽。

Trn1 是拥有高性价比的深度学习实例,与基于 GPU 的类似实例相比,训练成本降低了50%。以一个具备万亿级参数的大模型进行两周训练为例,GPU 服务器 P3dn 需要600个实例,最新一代 GPU 实例 P4d 需要128个实例,但 Trn1 只需要用96个实例。

亚马逊云科技 2022 re: 全球大会上推出了一款基于 Trn1 的网络优化型实例 Trn1n,进一步把网络带宽增加一倍,从 跃升到 ,其强大的网络吞吐能力能够将超过1万个 芯片构建在一个超大规模集群里,并在集群中进行模型的并行训练。

除训练外,大模型也需要超高的推理能力。所以亚马逊云科技构建了 Inf1 实例,用自研的推理芯片 提供支持,实现低延时低成本的推理。Inf1 实例和 GPU 的实例相比,每次推理成本可以降低70%。

作为一种专门用于机器学习推理及驱动的服务器芯片, 与同类基于 GPU 的服务器相比,提供了无与伦比的性价比价值、更高的吞吐量和更低的延迟。

亚马逊云科技 re: 全球大会还推出了下一代自研推理芯片 以及基于此的 EC2 Inf2 实例。这是唯一一个专门为大型 模型分布式推理建立的实例。与 Inf1 实例相比,它提供高达4倍的吞吐量,降低多达10倍的延迟,与基于 GPU 的实例相比,每瓦性能提升高达45%,同时也支持诸如 GPT 类型的大型复杂模型,并且可以用单实例实现1750亿参数模型的推理。

64位系统需要多大内存_win764位需要多大内存_人工智能chatgpt需要多大的内存

除了高性能和低成本之外, 系列芯片与实例在减碳方面表现卓越,符合全球绿色可持续发展的生态命题。

Finch 是一家软件初创公司,致力于使人类生成的文本具有机器可读性。然而,由于机器学习带来的高昂成本,使得该公司不得不强行减缓他们的前进步伐。 的推出,让 Finch 的管理者为之眼前一亮,该公司迅速将其计算密集型模型从原有的 GPU,迁移到 ,他们的回报也是立竿见影——其推理成本足足降低了80%以上。

就这样,通过以极低的成本提供强大的性能, 为客户的创新开辟出全新的途径。

云端算力,助力 AIGC 一路狂飙

人工智能的火热出圈,最早是从去年游戏设计师杰森·艾伦通过 平台创作的画作赢得艺术类比赛一等奖开始。然而,这幅《太空歌剧院》却是人工智能的作品。尽管业界不乏“艺术创造性工作不应受到机器影响”这样的声音,但是丝毫也不影响一波 AIGC 热潮的到来。

AIGC(AI ,人工智能自动生成内容),是继专业生产内容(PGC, – )、用户生产内容(UGC, User- )之后的新型内容创作方式。

在创意、表现力、迭代、传播、个性化等方面,AIGC 能够充分发挥技术优势,打造出新的数字内容生成与交互形态,现有的 AI 绘画、AI 写作,以及前面所说的 等,都属于 AIGC 的具体表现形式。

当然,AIGC 并不是只用于聊天、绘画,必然会在大量的探索和尝试之后,转向更有价值的行业应用领域,从而对经济和社会发展产生巨大的影响力。从这一点来说,强大和经济的算力支撑,同样是 AIGC 深入发展的必要前提。

通过在芯片、服务等方面的不断创新,亚马逊云科技帮助广大客户更深入了解和探索 AIGC 在各个领域的实践,实现 AIGC 的关键趋势洞察和快速落地。

展望未来,亚马逊云科技愿继续通过提供强大、经济且绿色的通用与智能算力,针对企业未来发展中面临的超大型复杂模型计算、高昂成本等共性问题,共同推进高效和经济的算力应用,支持客户实现卓越的业务创新,获得更多的投资回报与效益,加速迈向商业成功!

© 版权声明

相关文章

暂无评论

暂无评论...