赶超GPT-4o,最强大模型Llama3.1 405B一夜封神
2024-07-24 08:41

赶超GPT-4o,最强大模型Llama3.1 405B一夜封神

本文来自微信公众号:APPSO (ID:appsolution),作者:AppSo,原文标题:《赶超 GPT-4o,最强大模型 Llama 3.1 405B 一夜封神,扎克伯格:开源引领新时代》,题图来自:视觉中国

文章摘要
Meta发布了Llama 3.1 405B,一夜封神,成为全球最强大的开源大模型。

• 💥 Llama 3.1 405B在基准测试中碾压了GPT-3.5 Turbo和GPT-4 0125

• 🚀 Meta选择开源道路,推动AI生态发展,扎克伯格表示未来的Llama将成为业内最先进的

• 🌟 Llama 3.1 405B通过优化大规模训练和数据生成技术,提升了模型性能和泛化能力

就在今天,Meta如期发布了Llama 3.1模型。


简单来说,超大杯Llama 3.1 405B是Meta迄今为止最强大的模型,也是全球目前最强大的开源大模型,更是全球最强的大模型。


从今天起,不需要再争论开源大模型与闭源大模型的孰优孰劣,因为Llama 3.1 405B用无可辩驳的实力证明路线之争并不影响最终的技术实力。


先给大家总结一下Llama 3.1模型的特点:


  • 包含8B、70B和405B三个尺寸,最大上下文提升到了128K,支持多语言,代码生成性能优秀,具有复杂的推理能力;


  • 从基准测试结果来看,Llama 3.1超过了GPT-4 0125,与GPT-4o、Claude 3.5互有胜负;


  • 提供开放/免费的模型权重和代码,许可证允许用户进行微调,将模型蒸馏到其他形式,并支持在任何地方部署;


  • 提供Llama Stack API,便于集成使用,支持协调多个组件,包括调用外部工具。


附上模型下载地址:

https://huggingface.co/meta-llama
https://llama.meta.com/



超大杯登顶全球最强大模型,中杯大杯藏惊喜


本次发布的Llama 3.1共有8B、70B和405B三个尺寸版本。


从基准测试结果来看,超大杯Llama 3.1 405B全方位碾压了GPT-3.5 Turbo、大部分基准测试得分超过了GPT-4 0125。


而面对OpenAI此前发布的最强闭源大模型GPT-4o和第一梯队的Claude 3.5 Sonnet,超大杯依然有着一战之力,甚至仅从纸面参数上看,Llama 3.1 405B标志开源大模型首次追上了闭源大模型。


细分到基准测试结果,Llama 3.1 405B在NIH/Multi-needle基准测试的得分为98.1,虽然仍旧比不上GPT-4o,但也表明其在处理复杂信息的能力上堪称完美。



并且405B版本在ZeroSCROLLS/QuALITY基准测试的得分为95.2,意味着其具有整合海量文本信息的能力,对于关注LLM在RAG方面性能的AI应用开发者来说,可谓是相当友好。



尤为关注的是,Human-Eval主要是负责测试模型在理解和生成代码、解决抽象逻辑能力的基准测试,而Llama 3.1 405B在与其他大模型的比拼中也是稍占上风。


除了主菜Llama 3.1 405B,虽为配菜的Llama 3.1 8B和Llama 3.1 70B也上演了一出“以小胜大”的好戏。



就基准测试结果来看,Llama 3.1 8B几乎碾压了Gemma 2 9B 1T,以及Mistral 7B Instruct,整体性能也比Llama 3 8B有了显著提升。Llama 3.1 70B则越级战胜了GPT-3.5 Turbo。


据官方介绍,针对这次发布的版本,Llama研究团队在150多个涵盖多种语言的基准数据集上对模型性能进行了评估,以及进行了大量的人工评估。


官方最终得出的结论是:


我们的旗舰模型在多种任务上与顶尖的基础模型,如GPT-4、GPT-4o和Claude 3.5 Sonnet等,具有竞争力。


同时,我们的小型模型在与参数数量相近的封闭和开放模型相比时,也展现出了竞争力。


Llama 3.1 405B是如何炼成的


那Llama 3.1 405B是怎么训练的呢?


据介绍,作为Meta迄今为止最大的模型,Llama 3.1 405B使用了超过15万亿个token进行训练。


为了实现这种规模的训练并在短时间内达到预期的效果,研究团队优化了整个训练堆栈,在超过16000个H100 GPU上进行训练,这也是第一个在如此大规模上训练的Llama模型。


团队也在训练过程中做了一些优化,重点是保持模型开发过程的可扩展性和简单性:


  • 选择了仅进行少量调整的标准解码器Transformer模型架构,而不是混合专家模型,以最大限度地提高训练稳定性。


  • 采用了一种迭代后训练程序,每一轮都使用监督微调和直接偏好优化。这使得研究团队能够为每轮创建最高质量的合成数据,并提升每项功能的性能。


  • 相较于旧版Llama模型,研究团队改进了用于预训练和后训练的数据数量和质量,包括为预训练数据开发更预处理和管理管道,为后训练数据开发更严格的质量保证与过滤方法。


Meta官方表示,在Scaling Law的影响之下,新的旗舰模型在性能上超过了使用相同方法训练的小型模型。



研究团队还利用了405B参数模型来提升小型模型的训练后质量。


为了支持405B规模模型的大规模生产推理,研究团队将模型从16位(BF16)精度量化到8位(FP8)精度,这样做有效减少了所需的计算资源,并使得模型能够在单个服务器节点内运行。


Llama 3.1 405B还有一些值得发掘的细节,比如在设计上注重实用性和安全性,使其能够更好地理解和执行用户的指令。


通过监督微调、拒绝采样和直接偏好优化等方法,在预训练模型基础上进行多轮对齐,构建聊天模型,Llama 3.1 405B也能够更精确地适应特定的使用场景和用户需求,提高实际应用的表现。


值得一提的是,Llama研究团队使用合成数据生成来产生绝大多数SFT示例,这意味着他们并不全然依赖真实世界的数据,而是通过算法生成的数据来训练模型。



此外,研究团队通过多次迭代过程,不断改进合成数据的质量。为了确保合成数据的高质量,研究团队采用了多种数据处理技术进行数据过滤和优化。


通过这些技术,团队能够扩展微调数据量,使其不仅适用于单一功能,而且可以跨多个功能使用,增加了模型的适用性和灵活性。


简单来说,这种合成数据的生成和处理技术的应用,其作用在于创建大量高质量的训练数据,从而有助于提升模型的泛化能力和准确性。


作为开源模型路线的拥趸,Meta也在Llama模型的“配套设施”上给足了诚意。


  • Llama模型作为AI系统的一部分,支持协调多个组件,包括调用外部工具。


  • 发布参考系统和开源示例应用程序,鼓励社区参与和合作,定义组件接口。


  • 通过“Llama Stack”标准化接口,促进工具链组件和智能体应用程序的互操作性。


  • 模型发布后,所有高级功能对开发者开放,包括合成数据生成等高级工作流。


  • Llama 3.1 405B内置工具大礼包,包含关键项目,简化从开发到部署的流程。


值得注意的是,新开源协议里,Meta也不再禁止用Llama 3来改进其他模型了,其中也包括最强的405B尺寸,真·开源大善人。


附上92页论文训练报告地址:

https://ai.meta.com/research/publications/the-llama-3-herd-of-models/


一个由开源引领的新时代


网友@ZHOZHO672070也火速在Hugging Chat上测试了一下Llama 3.1 405B Instruct FP8对两个经典问题的回答情况。


遗憾的是,Llama 3.1 405B在解决“9.11和9.9谁更大”的难题上遭遇翻车,不过再次尝试之下,它又给出了正确答案。


而在“我一把把把住了”的拼音标注上,其表现也尚可。



网友只用了不到10分钟的时间,就借助Llama 3.1模型快速构建和部署了一个聊天机器人。



另外,Llama内部科学家@astonzhangAZ也在X上透露,其研究团队目前正在考虑将图像、视频和语音功能集成到Llama 3系列模型之中。


开源和闭源之争,在大模型时代依然延续着,但今天Meta Llama 3.1新模型的发布为这场辩论画上了句号。


Meta官方表示,“到目前为止,开源大型语言模型在功能和性能方面大多落后于封闭式模型。现在,我们正迎来一个由开源引领的新时代。”


Llama 3.1 405B的诞生证明了一件事情,模型的能力不在于开或闭,而在于资源投入、在于人和团队等因素,Meta选择开源或许出于很多因素,但总会有人扛起这面大旗。


只不过,作为第一个吃螃蟹的巨头,Meta也因此收获了首个超越最强闭源大模型的SOTA称号。


Meta CEO扎克伯格在今天发布的长文《Open Source AI Is the Path Forward》中写道:


“从明年开始,我们预计未来的Llama将成为业内最先进的。但在此之前,Llama已经在开源性、可修改性和成本效率方面领先。”


开源AI模型志不在超越闭源,或出于技术平权,不会让其成为少数人牟利的手段,或出于众人拾柴火焰高,推动AI生态的繁荣发展。


正如扎克伯格在其长文末尾所描述的愿景那样:


我相信Llama 3.1版本将成为行业的一个转折点,大多数开发人员将开始转向主要使用开源技术,我期待这一趋势从现在开始持续发展……共同致力于将AI的福祉带给全球的每一个人。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定