大模型评测社区LMSYS发布了一份大模型排行榜单,Llama 3位列第五,英文单项与GPT-4并列第一。
不同于其他Benchmark,这份榜单的依据是模型一对一battle,由全网测评者自行命题并打分。
最终,Llama 3取得了榜单中的第五名,排在前面的是GPT-4的三个不同版本,以及Claude 3超大杯Opus。
而在英文单项榜单中,Llama 3反超了Claude,与GPT-4打成了平手。
对于这一结果,Meta的首席科学家LeCun十分高兴,转发了推文并留下了一个“Nice”。
我还记得去年三月GPT-4发布的时候,达到与之相同的表现几乎是一件不可能的事。
现在AI的普及化实在是令人难以置信,我对Meta AI的同仁们做出这样的成功感到非常骄傲。
截至最新榜单发布,LMSYS共收集了近75万次大模型solo对战结果,涉及的模型达到了89款。
其中,Llama 3参与过的有1.27万次,GPT-4则有多个不同版本,最多的参与了6.8万次。
下面这张图展示了部分热门模型的比拼次数和胜率,图中的两项指标都没有统计平局的次数。
榜单方面,LMSYS分成了总榜和多个子榜单,GPT-4-Turbo位列第一,与之并列的是早一些的1106版本,以及Claude 3超大杯Opus。
另一个版本(0125)的GPT-4则位列其后,紧接着就是Llama 3了。
而在英文单项榜单中,Llama 3的成绩直接和两款GPT-4打成了平手,还反超了0125版本。
除了语言能力之外,榜单中还设置了长文本和代码能力排名,Llama 3也都名列前茅。
这是一个人人都可以参与的大模型测试,题目和评价标准,都由参与者自行决定。
而具体的“竞技”过程,又分成了battle和side-by-side两种模式。
battle模式下,在测试界面输入好问题之后,系统会随机调用库中的两个模型,而测试者并不知道系统到底抽中了谁,界面中只显示“模型A”和“模型B”。
在模型输出答案后,测评人需要选择哪个更好,或者是平手,当然如果模型的表现都不符合预期,也有相应的选项。
side-by-side则是由用户选择指定的模型来PK,其余测试流程与battle模式相同
不过,只有battle的匿名模式下的投票结果才会被统计,且在对话过程中模型不小心暴露身份就会导致结果失效。
而最终的排行榜,是利用Win Rate数据,通过Elo评价系统换算成分数得到的。
Elo评价系统是一种计算玩家相对技能水平的方法,由美国物理学教授Arpad Elo设计。
具体到LMSYS,在初始条件下,所有模型的评分(R)都被设定为1000,然后根据这样的公式计算出期待胜率(E)。
随着测试的不断进行,会根据实际得分(S)对评分进行修正,S有1、0和0.5三种取值,分别对应获胜、失败和平手三种情况。
不过实际操作过程中,LMSYS团队发现这种算法的稳定性存在不足,于是又采用了统计学方法进行了修正。
他们利用Bootstrap方法进行重复采样,得到了更稳定的结果,并估计了置信度区间。
Llama 3已经可以在大模型推理平台Groq(不是马斯克的Grok)上跑了。
这个平台的最大亮点就是“快”,之前用Mixtral模型跑出过每秒近500 token的速度。
跑起Llama 3,也是相当迅速,实测70B可以跑到每秒约300 Token,8B版本更是接近了800。
Copyright © 2002-2023 半岛·体育(中国)官方网站有限公司 版权所有 备案号:闽ICP备2021014289号-2">闽ICP备2021014289号-2