当前位置: 首页 > 热点资讯  > 正文

当前看点!竞争对手押注大模型,亚马逊云科技全球高管如何看待云上新竞争?

时间:2023-07-04 11:38:09     来源:界面新闻

2022年底,由美国初创企业OpenAI开发的聊天应用ChatGPT引爆市场,生成式AI成为科技市场热点,,ChatGPT背后是深度学习大模型,其理解和生成文字的能力超过以往AI产品。全球主要云计算公司加入其中,争夺算力、下场开发和销售大模型,云计算市场迎来新一轮竞争热潮,覆盖AI计算所需的算力、算法、数据各层面。

作为全球云计算“一哥”,亚马逊云科技(AWS)亦不能在此轮竞争中落于下风,将机会让与对手。近日,亚马逊云科技全球产品副总裁Matt Wood在上海接受界面新闻等采访时表示,与竞争对手把自研大模型直接落地到云服务上不同,亚马逊云科技积极与第三方合作伙伴合作,使用第三方生成式AI模型,包括Anthropic、AI21Labs和Stability AI等。此外,公司还自研预训练Amazon Titan基础模型,客户可以根据自身需求,在基础模型上使用自身数据,搭建自有模型。这也意味着,亚马逊云科技在把云服务从模型生产端拓展至模型使用端历程中,赋予客户更多选择,绝非单打独斗。


(相关资料图)

Matt Wood拥有机器学习和生物信息学博士学位,为亚马逊云科技早期员工,最早任职亚马逊云科技欧洲,随后于2010年在西雅图亚马逊云科技总部担任全球副总裁至今,负责公司机器学习和大数据等产品,包括无服务器计算服务AWS Lambda、流式数据处理平台Amazon Kinesis等。

“一种模型并不能决定一切。”Matt Wood称,从应用上来看,他认为企业不必急于绑定一家大模型,不能依赖一个万能的、单一的大型语言模型应对各种任务,“我们认为正确的做法应该是:客户可以访问多个模型,然后根据自己的需求和数据来定制自己的模型。即在大模型基础之上,确保以私密和安全的方式让用户能够定制自己的模型。”

自ChatGPT爆火出圈后,微软、谷歌分别先行公布AI对话机器人争抢用户,随后跟随两者又将大模型用在企业端,开辟云计算新战场。在其他云厂商种种关于AIGC领域的积极行动下,亚马逊云科技似乎仍显“保守”:一方面其生成式AI产品开放程度有限,企业客户难以充分评估;另一方面,仍少有企业领域“标杆客户”对其AIGC服务进行推荐,使得亚马逊云科技在本轮AI竞赛中,声量远逊于对手。

对此,Matt Wood解释称,就生成式AI而言,行业目前还处在一个非常初期的阶段。“生成式AI的发展就像一场马拉松比赛,当比赛刚刚开始时,如果只跑了三四步就断言某某某会赢得这场比赛,这显然是不科学的。这是一场长期的竞争,是一场长跑。”他称,“我们现在还处于非常早期的阶段,要拭目以待。”

4月13日,亚马逊云科技发布了自研大模型Titan,包括了Text和Embeddings两个大语言模型(LLM),分别负责文字处理和用于机器学习的表征向量转化,亚马逊并未公布这两个大语言模型参数规模。而AI云服务Amazon Bedrock使得用户可以通过API来调用Titan和第三方模型,包括了创业公司AI21 Labs、Anthropic、Stability Ai的基础模型。

此外,亚马逊还宣布全面开放AI代码辅助工具CodeWhisperer,对个人开发者免费,AI可以帮助程序员生成大量的无差异代码,从而提高开发效率。亚马逊称,使用该服务的开发者效率提高了57%,成功完成任务的可能性高了27%。该服务目前支持包括了Python、Java和C+等多种计算机语言。

大模型生产门槛极高,在大模型快速迭代、AIGC落地场景已能明显提升效率的情况下,企业客户存在接入大模型服务优化业务的需求。Matt Wood称,诸多行业模型现在在亚马逊云科技的平台之上进行训练,如彭博社的金融领域500亿参数大模型“BloombergGPT”,他认为,这一模式也适用于其他客户,后者根据自己行业来选择相应基础模型,然后对模型进行训练。此外,客户还会根据自身情况来补充添加独有、私有信息,从而使模型的输出结果和自身需求高度相关。

Matt Wood预计,基于Amazon Bedrock的合作趋势,将会有越来越多的第三方模型出现,其中既有自有的第三方模型,也包括开源模型。同时,亚马逊云科技也会提供多个Amazon Titan的模型可供客户选择。他还强调,公司将不会把Amazon Bedrock做成类似应用商店的模型市场,而是精选出最优的模型,保证其低时延、高运维性能等特点。

算力方面,除英伟达GPU,亚马逊云科技亦有自研AI芯片布局,其中成本是该公司向外界传达其自研AI芯片优势的重点。此前,亚马逊发布了基于自研的AI训练芯片Trainium和推理芯片Inferentia2的算力基础设施,亚马逊称采用了Trainium的云服务器将大模型训练成本降低了50%,最多可以将30000个Trainium芯片连接起来提供超过6 exaflops的算力集群,连接带宽可高达1600Gbps,与之相较目前AI服务器之间连接带宽最高水平约为3200Gbps;推理方面,亚马逊称Inferentia2针对大模型推理进行优化,将推理的性价比提高了40%。

面向AIGC和大模型训练,已经是大型芯片公司竞争的焦点,今年初以来,英伟达和AMD均针对生成式AI的生成式AI负载优化的芯片产品,亚马逊云科技如何持续获得云端的性能和成本的优势?Matt Wood告诉界面新闻,芯片仅是整个AI图景的一部分:一方面,客户可以在亚马逊云科技的云上使用英伟达等公司的芯片;另一方面,自研AI训练芯片Trainium在网络互联等领域仍有显著优势,并降低了成本,如基于Trainium的云端实例Trn1n,能够让用户来训练非常非常大型的语言模型,并且成本降低了20%。

最新推荐

Copyright  © 2015-2022 太平洋纸业网版权所有  备案号:豫ICP备2022016495号-17   联系邮箱:93 96 74 66 9@qq.com