本文来自微信公众号:硅星人Pro (ID:gh_c0bb185caa8d),作者:Jessica,原文标题:《OpenAI推出“小”模型GPT-4o Mini,成本骤降,开始跟各位卷性价比了》,头图来自:视觉中国
本文来自微信公众号:硅星人Pro (ID:gh_c0bb185caa8d),作者:Jessica,原文标题:《OpenAI推出“小”模型GPT-4o Mini,成本骤降,开始跟各位卷性价比了》,头图来自:视觉中国
今天,OpenAI忽然官宣推出全新小模型“GPT-4o Mini”,相当于旗舰模型GPT-4o的轻量经济版来供开发者使用。
此前,一些没有足够资金的开发者可能对GPT高昂的价格望而却步,转而选择更便宜的模型,例如谷歌的Gemini 1.5 Flash或Anthropic的Claude 3 Haiku来构建应用程序。而现在,OpenAI也正式进入了轻量级模型的市场。
作为OpenAI最具成本效益的小模型,GPT-4o Mini主打的就是便宜好用。价格为每百万输入15美分和每百万输出60美分(约等于一本2500页的书)。比以前的前沿模型便宜一个数量级,比GPT-3.5 Turbo便宜60%以上。
性能上它比GPT-3.5 Turbo更强大,在MMLU测试中得分82%,并在LMSYS机器人竞技榜上打败了GPT-4(0125版本)。
以上低成本、低延迟的优点显著扩展了它基于AI的应用范围,为包括多API调用、大规模上下文处理、实时客户互动等多种任务提供了一个经济高效的解决方案。
目前GPT-4o Mini支持文本和视觉输入,未来将扩展至音视频。它拥有128K上下文窗口,每次请求最多可输出16K标记,知识库更新至2023年10月。而且由于与GPT-4o共享改进的分词器,使其处理非英语文本的成本效益更高。
“2022年,当时世界上最好的模型是text-davinci-003。它比这个新模型差得多,而它的成本高了100倍。”Sam Altman说,“最重要的是,我们认为人们真的会非常喜欢使用这个新模型。”
一、一款具有卓越文本智能和多模态推理能力的小模型
根据OpenAI官方介绍,GPT-4o mini在学术测试中表现优异,超越了GPT-3.5 Turbo等小型模型。它在文本智能、多模态推理和语言支持方面水平与GPT-4o相当。在函数调用方面表现突出,有助于开发者创建能与外部系统交互的应用。此外还显著提升了长上下文处理能力,优于GPT-3.5 Turbo。
具体几项基准测试得分来看:
文本和视觉推理任务上,GPT-4o mini在MMLU中得分为82.0%,相比之下Gemini Flash得分为77.9%,Claude Haiku得分为73.8%。
数学和编码能力方面,GPT-4o mini也超过了市场上的所有轻量级小模型。在衡量数学推理的MGSM中,GPT-4o mini得分为87.0%,Gemini Flash得分75.5%,Claude Haiku得分71.7%。在编码性能测试HumanEval中,GPT-4o mini拿下87.2%,而Gemini Flash和Claude Haiku分别为71.5%和75.9%。
来到多模态推理,GPT-4o mini在MMMU中再次以59.4%分夺冠,其对手Gemini Flash得分56.1%,Claude Haiku得分50.2%。
二、新模型何时、何处可用?
现在,GPT-4o mini现已作为文本和视觉模型在Assistants API、Chat Completions API和Batch API中可用,并在未来几天内推出微调功能。如果开发者不想切换到GPT-4o Mini,仍可以通过API访问GPT-3.5 Turbo。OpenAI表示,GPT-3.5将在某个时候从API中退役,但具体时间未定。
ChatGPT的所有免费、Plus和团队用户今天起就可以使用GPT-4o mini来取代GPT-3.5,企业用户也将在下周开放。
对于渴望以低成本构建AI应用程序的开发者来说,GPT-4o Mini的推出无疑为他们提供了另一个有力选择。OpenAI已经让金融科技初创公司Ramp测试了该模型,使用GPT-4o Mini构建了一个从收据中提取费用数据的工具。电子邮件客户端Superhuman也参与了测试并用它创建了一个自动建议邮件回复功能。
三、可能是小模型界的新晋最强战将
OpenAI并没有透露GPT-4o mini的具体大小,但表示它大致与其他小型AI模型(如Llama 3 8b、Claude Haiku和Gemini 1.5 Flash)处于同一水平。OpenAI还称GPT-4o mini在速度、成本效益和智能上都全面碾压行业领先的小模型。这也在LMSYS.org聊天机器人竞技场的预发布测试中得到了验证。
GPT-4o mini与其它小模型在性能与成本上的综合比较。图源:Artificial Analysis
“与同级别模型相比,GPT-4o mini的输出速度非常快,中位输出速度为每秒202个标记,”Artificial Analysis联合创始人George Cameron表示,“这比GPT-4o和GPT-3.5 Turbo快2倍多,是许多依赖速度用例的极佳选择。”
Sam Altman在推文里说,GPT-4o mini是朝着让“智能便宜到无法测量”努力的重要一步。
而关于OpenAI为何花了这么长时间才推出轻量模型,产品主管Olivier Godement表示,这是“纯粹的优先级”问题。因为公司专注于创建GPT-4这类更大更好的模型,这需要大量“人力和算力”。随着时间的推移,OpenAI注意到开发者急于使用较小的模型,因此决定现在是时候将资源投入到构建GPT-4o Mini上。
对于网友最关心的“什么时候才能开放语音模式”的问题,Sam Altman也给出了回复:“7月晚些时候推出测试版,公众访问权限更晚些开放。
回到OpenAI这第一款小参数轻量模型GPT-4o Mini。Godement认为,GPT-4o Mini真正体现了OpenAI让AI技术更广泛可及的使命。“如果我们希望AI能惠及世界的每一个角落、每一个行业、每一个应用,我们就必须让AI更加经济实惠。”
而除了达成惠及全球各地开发者和用户的目标,让AI不仅是大公司的专利,从企业运营角度来说,进军小模型领域更能扩大OpenAI产品的覆盖范围,在市场竞争中保持优势。
此举也无疑会给Google、Anthropic等其他竞争者带来压力,发现自己好不容易站稳的地盘又引来了OpenAI这个业内王者入局。但对于普通用户来说,这并非一件坏事。也许会刺激整个行业在小型高效模型方面的研发和创新,让AI技术更加普及易用,从而丰富整个生态系统。
支持一下 修改