本文来自微信公众号:极客公园 (ID:geekpark),作者:宛辰,编辑:靖宇,题图来自:视觉中国
本文来自微信公众号:极客公园 (ID:geekpark),作者:宛辰,编辑:靖宇,题图来自:视觉中国
9 月 25 日下午,亚马逊在公司官网公布,向大模型公司Anthropic投资至多 40 亿美元,后者以拥有对标ChatGPT的聊天机器人Claude而闻名。
云计算公司大笔投资大模型公司,微软已经在今年2月开了个好头,以100亿美元获得OpenAI这个微软云Azure的大客户,以及ChatGPT的优先使用权。现在看来,这笔交易对微软而言,稳赚不赔,今年以来,微软市值已抬升40%。
但半年后的现在,大模型领域上下游的关系正在变得复杂,亚马逊投资Anthropic绝不仅仅是为 AWS“锁定”客户,甚至不一定是为了大模型。
官方合作细则显示:Anthropic将使用AWS Trainium和Inferentia芯片来构建、训练和部署其未来的基础模型。并且,两家公司还将合作开发未来的Trainium和Inferentia技术。值得注意的是,AWS Trainium是2020年底,AWS推出的定制ML(机器学习)训练芯片,Inferentia芯片是由AWS在2019年推出的高性能机器学习推理芯片。
通过投资Anthropic加深合作,亚马逊意在加速开发自研的AI芯片。
几天前,The information独家爆料英伟达想从三大云厂商中“收一道手续费”——英伟达想从云厂商手中租赁英伟达服务器,从而可以通过云,而不是服务器或者芯片的方式向 AI 应用者直接提供服务,这些应用者也包括三大云厂商们。
但,只有亚马逊拒绝了这一提议。
现在看来,亚马逊拒绝英伟达的底气在于,想办法加快升级自研AI芯片。大模型时代,亚马逊稳住云计算市场第一宝座的核心竞争力在于,AI芯片。
一、第一云平台出手,OpenAI 最大敌人
对于这份合作,亚马逊表示,将初步投资12.5亿美元购买Anthropic的少数股权。作为交易的一部分,亚马逊表示可以选择将对Anthropic的投资增加至40亿美元。
作为扩大合作的一部分:Anthropic将使用AWS Trainium和Inferentia芯片来构建、训练和部署其未来的基础模型,并受益于AWS的价格、性能、规模和安全性。两家公司还将合作开发未来的Trainium和Inferentia技术。
AWS将成为Anthropic的主要任务关键型工作负载云提供商,包括安全研究和未来基础模型开发。Anthropic计划在AWS上运行大部分工作负载,进一步为Anthropic提供全球领先云提供商的先进技术。
Anthropic做出长期承诺,为世界各地的AWS客户提供通过Amazon Bedrock访问其下一代基础模型的权限,Amazon Bedrock是AWS的完全托管服务,可提供对业界顶级基础模型的安全访问。此外,Anthropic还将为AWS客户提供早期访问模型定制和微调功能的独特功能。
亚马逊开发人员和工程师将能够通过Amazon Bedrock使用Anthropic模型进行构建,这样他们就可以将生成式AI功能融入到他们的工作中,增强现有应用程序,并在整个亚马逊业务中创造全新的客户体验。
两家公司没有透露亚马逊投资Anthropic的估值。
Anthropic由OpenAI前员工Daniela Amodei和Dario Amodei创办,他们是OpenAI GPT2和GPT3的核心研发人员。目前,Anthropic拥有最受欢迎的聊天机器人之一Claude。
作为ChatGPT制造商OpenAI的挑战者,Anthropic今年早些时候获得了谷歌4亿美元的投资,并在3月份Spark Capital的一轮融资后估值超过40亿美元。
二、亚马逊想干什么?
向Anthropic至多投资40亿美元,亚马逊到底想干什么?
一个显而易见的原因是,为了“抢”客户。大模型厂商和AI应用企业作为云计算(未来)最大的客户,成为各大云厂商的必争之地。
今年以来,谷歌、微软、AWS、甲骨文和英伟达心照不宣、不约而同都做了一件事——通过战略投资“锁定”客户(花钱买客户),尽管这一操作在财务上备受争议。
但事实上,Anthropic自2021年以来就一直是AWS的客户,AWS通过40亿美元加深与Anthropic的合作,旨在更深的合作权益:大模型,以及最重要的——自研AI芯片。
换句话说,通过战略投资这笔学费,亚马逊学习怎么做大模型。也通过和与OpenAI对垒的对手切磋,研发甚至颠覆英伟达GPU的AI芯片。毕竟,GPU并不是为训练神经网络而生,靠CUDA和各种技术一个场景一个场景“魔改”是一种选择,但不是最优解。
亚马逊首席执行官安迪·贾西(Andy Jassy)的发言侧面印证了这一点,他表示:“相信我们可以通过更深入的合作帮助改善许多短期和长期的客户体验。”
短期和长期的客户体验,对应亚马逊的大模型和自研 AI 芯片。
他进一步补充,“客户对Amazon Bedrock以及AWS的AI训练芯片AWS Trainium感到非常兴奋,Amazon Bedrock是AWS的新托管服务,使公司能够使用各种基础模型来构建生成式AI应用程序;而AWS Trainium是AWS的AI训练芯片,我们与Anthropic的合作应该可以帮助客户获得这两项功能更多的价值。”
事实上,上半年,亚马逊推出了自己的大模型Titan,并对外宣布了这一大模型的典型客户,但几天后便被这一典型客户跳脚,向媒体吐露亚马逊大模型不好用。
可见,亚马逊在自研大模型的准备上,并不充分。因此,亚马逊转而向市场大力推广大模型平台Amazon Bedrock,客户可以在该平台调用其他主流大模型厂商的服务,包括Anthropic。
另一方面,亚马逊需要稳住云计算的基本盘。
大模型时代,云计算面临不同的工作负载,需要探索新的技术来实现更快的推理能力。在这方面,亚马逊其实也是先行者。自研数据中心芯片和服务器,曾一度被视为AWS为“区别于微软和谷歌”所做的“最重要的事情之一”,其服务器拥有更高的速度,并且省电。
在AI专有芯片和服务器上,亚马逊也是三大云厂商中(微软云、谷歌云)中布局最早的。但其AI芯片的进展和性能一直没有单独对外释放消息,而是通过捆绑在服务器中,通过云服务向客户提供服务。因此,客户直接感知到的只有云计算的性能,而没有其中芯片的性能。
现在,亚马逊需要了解哪些工作负载在哪种处理器上最适合,和Anthropic的合作是实现手段之一。
当前,根据The information生成式AI数据库的69家公司中,有32家使用Amazon,26家使用Google,13家使用Microsoft作为云提供商。当然,有些公司使用多个云提供商。
大模型时代,云计算、大模型和AI应用的合作与竞争正在变得更加复杂。经久未有大变局的云计算产业,也终于迎来变革的契机。
本文来自微信公众号:极客公园 (ID:geekpark),作者:宛辰,编辑:靖宇
支持一下 修改