llama3来了,提升大吗?羊驼家族还能引领LLM开源浪潮吗?

在过去的一年里,llama1-2几乎奠定了开源LLM的半壁江山 llama3是否带来了新的惊喜?有哪些值得关注的点? https://ai.meta.…
关注者
425
被浏览
218,905

94 个回答

去年,Google说,我们没有护城河,OpenAI也没有。

现在Google最先进的模型是Gemini 1.5 Pro,直接Llama-3 70B干到了。 每年闭源模型的护城河可能都要被扎克伯格抽干一次,

今天发布的Llama-3 70B,和Gemini 1.5 Pro,Cohere CMD R+,Claude Sonnet,老版GPT-4差不多处于同样的分界线。(等lmsys排行榜)

400B+已经蓄势待发,挑战Opus和GPT-4四月版,这大概就是Dario 所说的1亿美金级±的模型。

气氛看起来很焦灼。

Qwen,Cohere暂时没有货,

Mistral训练出SOTA估计也不会开源(至少不会立刻开源,据Bindu透露已经在训练中)。

Meta看起来已经掌握了核心科技,

那么,引领开源的还能是谁呢?

扎克伯格:正是……

马斯克:正是在下!

也许开源方面,我们可能看到羊驼3与Grok2的对局吧。 闻到了八角笼战的味道,哲学味满满……

很强,目前的llama 3 70B可能就是最好的70B模型,从基础benchmark来看已经足够好,真的是一棒子打晕了国内所有大模型公司。性能上来说感觉就是GPT-3.7的水平。一己之力急速拉高了开源水位。

从model card来看,核心似乎是:Scailling law里面数据层面的暴力出奇迹。

llama 3 在15T tokens上进行了训练,这是个很恐怖的数字,作为对比,国内大部分千亿参数大模型可能在2-5T之间的数据量进行了训练。

且在数据的规模之外,数据的质量也至关重要,model card中提到使用了大量的代码。

这个数据量对应这个参数,直觉上感觉是探明了一定尺寸的天花板,换句话说中文化可能很难做。

Post-Train部分没提出多少花活儿来,也没体验过,也没放出来对其榜单的水平,不好判断。等社区测测ifEval之类的对齐榜单水平如何。

在训练资源方面,不得不说美国还是真的资源丰富,2.4万卡集群训,国内谁有这条件...其实大厂有2.4万卡的,但没有单一集群,也估计一次性用不起来,sigh,我们在infra层面似乎跟海外也差距越拉越大。

最后就是还有个400B在炉子里,但感觉...开源社区也没人跑得动啊...70B能跑起来的也很少啦,可能很多企业会基于这个70B去做微调吧,cohere又要难受了...

总之,meta才是真正的OPENAI!