无声处的惊雷:OpenAI和微软的竞争悄然开始
2024-11-18 09:08

无声处的惊雷:OpenAI和微软的竞争悄然开始

本文来自微信公众号:琢磨事,作者:李智勇,题图来自:AI生成

文章摘要
OpenAI与微软在AI基础设施领域的竞争逐渐显现。

• 🚀 OpenAI和微软在Multi-Agent项目中展开较量。

• 🔍 AI基础设施成为未来超级应用的关键控制点。

• 🌐 中美AI生态可能分化,竞争与共存并存。

在OpenAI开源了个Swarm演示Multi-Agent后,微软则开源了magentic-one。虽然演示的功能不太一样,前者关于业务逻辑处理,后者关注文件访问这些基本操作,但这也是个Multi-Agent的例子。横向比较,微软的比OpenAI的略好,可以解决实际问题,真能用。但关键却不在这里,而是当你把两个项目放在一起做比较的时候,你就会发现一种无声的竞争已经开始。


我们有理由相信,随着Multi-Agent的智能原生程序变得越来越关键,这种竞争也会变得越来越激烈。


很多做战略分析的同学未必愿意读代码,愿意读代码的同学未必愿意花心思发现这种竞争的导火索,所以我在这里挑个事,还是把这事再说说。


(关于OpenAI Swarm,我们做了一期AI碰撞局,记录参见:《人类优先还是智能优先?》


一、AI的兵家必争之地


什么是AI产业的兵家必争之地?


备受关注的大模型其实基本不是,除非只有一家一骑绝尘,别人的模型水平是1,你是10。


如果大模型是竞争最关键的地儿,那其实OpenAI Swarm基于GPT-4o,微软magentic-one也是基于GPT-4o,大家没什么冲突。你做好模型,我用好模型,你好我好,根本没啥冲突的事。


关键就在于如果你预期的是超级应用,我预期的也是超级应用,随着超级应用的价值变大,那超级应用全链条的关键控制点上就会有你死我活的竞争。


OpenAI和微软之间暗搓搓冲突的根源倒不是在于某个应用,而在于谁对AI的基础设施有控制力


那什么是未来各种超级应用的关键控制点?找出这个控制点就找到了AI的兵家必争之地。


OpenAI和微软的潜在冲突和下面这个被我随手画的简图有关:



其中智能原生应用相关的详细说明参见:《真假◎智能原生(AI Native)应用极其挑战》


因为我们在说微软,所以我们拿LLM based OS和过去的Windows做类比。


比如我们常用的Windows里面也封装有很多算法,但不管我们在Windows上写多少程序,也不会直接使用里面封装的算法,而是要通过Windows对外提供的接口。这些算法对你是透明的。谁知道Windows里面封装了多少算法呢?


为什么这样呢,因为Windows里面不止有算法这些功能,还有账户管理、消息机制等把功能链接起来的部分。


上面两张图中,核心差异就是这个:


左侧的图仍然有系统的概念存在,而在右侧的图里,系统的概念消失了,模型不单履行逻辑判断的能力,也还取代了系统。


为什么这会导致剧烈冲突和竞争呢?


二、多大池子养多大鱼


智能原生应用因为数据所有权不同,所以注定有多个,但LLM based OS和LLM不是的。


这种基础设施是个超级大的大池子,但理论上在一个联通的市场空间里最后可能就剩下少数几个,并且Top1占据50%以上的市场份额。


谁在AI时代干成这事,谁就是新时代的巨头。


OpenAI需要这个,而微软显然不会放过这个。


可左侧的构图里面有微软的位置,右侧的没有。


如果世界最终选择了右侧的图,那模型即系统,微软公司在AI这块地儿的基础设施上就没有位置!


三、一切刚刚开始


上面其实是一些猜想,这个猜想有个大前提:智能原生(AI Native)的应用会席卷各个应用场景。这还需要点时间,所以上面说的深层矛盾也就在开源项目上漏出一点端倪。


但数字的事最违反人类常规感知的点就是速度,假如说人类进化的速度是1,制度文化进化的速度是100,那数字的进化速度至少是100万甚至更高。


一两年前大家不知道智能原生到底是什么,但现在上述两个开源项目,每个都是智能原生的。


所以这种潜在冲突也可能在某个瞬间一下爆发出来,关键节点应该是智能原生应用的收入规模。


四、后续的走势


当前这类竞争会在无声状态开始,短期谁占优由用户的选择决定,但模型如果不继续迭代几次,应用的范围就还是会比较窄。微软这次开源项目附带的说明很直接道出了当前的状态。



1、  2、3、4、5、6如果用一句话来简单概括就是:你要把它放沙盒里面,然后人类看着点免得造成不可预计的损失。


具体来说就是下面这个任务在跑的时候没准就执行了别的什么,比如把系统搞宕机这种事是可能发生的。


https://github.com/microsoft/autogen/tree/main/python/packages/autogen-magentic-one


在这样一种前提下,这种新的智能原生模式不是不能用,而是范围会被限制得比较窄,你也不敢让它负责出错后代价特别大的事,比如直接做诊疗。


好消息是这种精度问题确定可解决,眼下不知道的是在通用的大模型上到底什么时候解决。


如果有足够的钱其实可以在比较垂直的领域走特斯拉FSD12走过的路,如果没有那就必须等待通用大模型的升级,这二者其实等价。



理论上如果通用大模型足够强大,那专门训练一个E-To-E的模型和直接把数据扔给通用的模型其实并没有区别。


通用模型哪有什么智能边界!


终点上应用的边界其实是数据的边界。


不管怎么样,这里需要个拐点。否则我们上面说的就只有影子,而不会漏出真身。


这个拐点在技术上是通用大模型的进步,在商业上是出现一个Top的智能原生应用公司。互联网为什么变得如火如荼?本质是因为当年的BAT啊,BAT的那个收入量级确实足以启动一个时代。


这个临界点,我看美国人要到了。Tesla的FSD12就不说了,Glean的ARR一年翻4倍,5500万美金也不算少了。生意常在,而时代性机遇只有一次。


五、小结


更有趣的事情并不是老美怎么样,而是美国和我国的AI显然会分成两套很难联通的生态系,那国内的情况如何?走到最后美国和我国的生态系最终又会如何竞争、共存?互联网用了二十几年来给这类问题交出答卷。从现在开始算,AI可能也需要这么多时间。所以潜在的小时代可能要过去了。


本文来自微信公众号:琢磨事,作者:李智勇

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定