李开复被大模型绊了一跤

打开了一条国产大型号的秘密“捷径”。

作者|赵金杰

编辑|王静

决心开发通用大模型库的李开复,正在被嵌套的Meta开源大模型LLaMA质疑。

近日,今年3月从阿里离职创办大AI模型的贾爆料称,在帮助海外客户适应国内某新模型时,被朋友告知该模型实际上使用了LLaMA架构,只在代码中更改了几个变量名。

尽管贾没有指出开发这种新模式的具体公司,但所有迹象都指向李开复的财产。11月6日,万物刚刚发布了“Yi”系列开源机型——Yi-34b和Yi-6B。

针对外界的质疑,11月15日,10000 objects在回复便当财经时承认,他们在训练模型的过程中遵循了GPT/骆驼的基本框架,但“根据10000 objects的观察和分析,现在大模型社区的技术框架处于接近通用化的阶段,基本上国际主流大模型都是基于Transformer的框架……”

如果把模型训练过程比作一道菜,“建筑只是决定了烹饪的原材料和一般步骤…训练一个好的模型,需要更好的‘原材料’(数据),控制好每一步的细节(训练方法和具体参数)。”01万件事进一步说明。

在贾站出来爆料之前,一万个对象模仿羊驼架构的指责已经开始在开源社区发酵。

9天前,康威高级人工智能应用专家埃里克·哈特福德(Eric Hartford)在Huggingface上发帖称,“Yi-34B模型基本上采用了骆马架构,只是改名了两个张量。”

8天后,11月14日,Yi团队开源总监在本帖中回复称,Hartford关于张量名的观点是正确的,万物会将Yi改名为Llama。

在今天便当财经收到的最新回复中,010000对象提到:“最初的出发点是为了充分测试模型,而不是为了刻意隐瞒出处,对于实验改名后使用LLaMA部分推理代码的疏忽。万件事对此进行了说明,并表示诚挚的歉意。我们正在各个开源平台重新提交模型和代码,补充LLaMA协议的副本,并承诺尽快完成各个开源社区的版本更新。”

李开复今天下午亲自发朋友圈回应此事。

被称为中国“AI教父”的李开复,不仅在大模浪潮中获得了外界更大的期待,也不可避免地迎来了外界更为严格的审视。

【/s2/】虽然万物已经公开承认借鉴了LLaMA架构,但也不能直接给李开复的大模型贴上“套管”或者“抄袭”的标签。

同样开发大模型的国内创业者李震对便当财经表示要看具体的实现细节和底层技术来界定大模型是否存在套壳的行为。“如果万对象模型使用与Meta LLaMA相同的模型架构、训练方法和数据集,那么可能会受到一定程度的炮轰。但是,如果它使用了不同的技术或进行了额外的改进,那么它就不能简单地说是一个外壳。”

按照万物的说法,它把大部分精力投入到了调整训练方法、数据匹配、数据工程、细节参数、保姆技巧等等。

即使模型架构相似,但最终训练的大型模型的性能仍然会因数据源和数据训练方法的不同而有所不同。“前大模型时代,AI的主流是以模型为中心的单任务系统,数据基本不变。大模型时代,算法基本不变,而数据在不断增加。”在业内专家刘飞看来,与算法和计算能力相比,数据可能是阻碍国产大机型追赶OpenAI的更大差距。“魔鬼就藏在这些数据训练的细节里。”

特别值得一提的是参数与输入输出不成正比,而是非线性的。人工智能专家丁磊说,“数据只是定性的,更重要的是检验团队对数据的清洗能力,否则数据干扰会随着数据的增加而增加。”

这也为新的大模型团队在性能上以更小的参数超越参数更大的模型提供了理论上的可能性。

11月6日Yi-34B的预训模型发布后,李开复将其描述为“全球最强开源模型”,以更小的模型尺寸评测超越了LLaMA2-70B、Falcon-180B等大尺寸开源模型。

易-34B

然而,随着越来越多的国产大机型登上各种测试榜单的榜首,一个个超越了业界公认最强的GPT-4,关于这些大机型是靠实力还是靠刷榜的方式获得高分,又有了争议。

著名的大型模型测试集C-Eval在官网顶部声明:评价永远不可能全面,任何排名都可能被不健康的方式黑掉,并给出了几种常见的刷排名方法,如提取强大模型(如GPT-4)的预测结果,找人工标注再提取,在网上找原创题目加入训练集中微调模型等

在刘飞看来,国产大车型能排在测试榜第一的一大客观原因是至今没有真正公认的客观评测标准和方法。上一代AI的“单任务模型”有一个公认的数据集作为金标准,但在大模型的新兴时代,“由于大模型的多任务和开放性的新特点,很难提前定义,对数据质量的考验既艰巨又难以全面。”刘飞说。

但是,即使国内很多大型模型都是由骆马架构培养出来的,对于国内公司来说,仍然具有不可替代的价值。

李震表示,外部公司接入大型模型平台时,除了考虑模型的性能和效果,模型的开放性和定制化也是需要考虑的重要因素。在某些领域,应特别注意数据隐私和安全合规性。

虽然目前国内公司可以直接接入Metalama模型,但由于Metalama是国际大型模型平台,需要遵守更多的国际法规和限制。另外,如果涉及敏感领域或数据,需要获得特定的授权或许可,甚至不排除随时关闭海外开源技术、切换高额费用或限制区域访问的风险。因此,在李震看来,国内公司直接调用国产大机型比冒险进入Metalama更经济划算。

通过学习美洲驼的基本架构,李开复的“一万件事”在训练模型速度上起步很快。

今年3月,李开复正式宣布将亲自带领团队成立AI2.0公司,开发通用模型。经过3个月的筹备,7月,公司正式命名为“01万件事”,并组建了一个几十人的大型模型研发团队。团队组建4个月后,11月万物推出“Yi”系列大模型产品,借助Yi-34B,称霸多个大模型测试集。

据投资界消息,在大模型产品亮相之际,万物已完成由阿里云领投的新一轮融资,投后估值超10亿美元,跻身中国大模型创业公司独角兽。

万物迅速崛起的背后,离不开李开复的个人IP加持。甚至官网公开感谢“李开复博士40年来在人工智能领域的科研和产业经验”。

万官网

曾任谷歌全球副总裁、大中华区总裁,并在微软全球副总裁期间创办微软亚洲研究院的李开复,通过2009年成立创新工场,完成了从明星职业经理人到VC投资人的身份转换。

十年来,创新工场投资了300多个项目,其中不乏旷视科技、美图、知乎、第四范式、地平线等知名公司。

当在2019年晚些时候被问及哪个时期是创新工场最好的基金时,李开复回答说:“人工智能项目的投资最多,回报最好…比如400次的鄙视回归,1200次的VIPKID回归。”

李开复几十年如一日地宣扬和宣讲ai,一度被称为中国的“AI教父”。虽然在ai上的投入可圈可点,但李开复的角色明显不同于萨姆·奥特曼(Sam altman),后者是一位以划时代的产品引领AI行业的企业家。

在2018年9月推出的新书《AI Future》中,李开复曾谈到中美之间的竞争差距,并大胆预言:“人工智能时代竞争力的天平将倾向于商业执行力、产品质量、创新速度和大数据,而这些要素恰恰是中国优于美国的。”在书中,李开复甚至写道“15年前以‘学习’起家的中国互联网创业公司,受到美国商业模式的启发,彼此竞争激烈…当这一代中国企业家学会使用人工智能时,他们将彻底颠覆游戏规则。”

面对ChatGPT引发的新一轮AI颠覆性变革,越来越多的人开始重新审视中美在AI上的差距。

具体到大的模型,丁磊甚至认为,相比算法、算力、数据,“真正领先的AI管理者,像山姆·奥特曼这样有能力推动新技术应用的技术管理人才,在中国更为缺乏。短板。”

除了向外界展示奥特曼高超的技术管理能力,李开复的大模特梦也遇到了不少挑战。

如何尽快赶上OpenAI的步伐,是摆在李开复等大模型创业追随者面前最大的拷问。

在国产大型号快速发展的前半年,OpenAI也突飞猛进,相继推出了GPT-4、GPT-4V、GPT-4 Turbo。

奥特曼还在带领OpenAI继续飙升。今年10月,奥特曼首次明确表示,OpenAI已经开始了GPT-5和GPT-6的训练,并将继续沿着多模态方向迭代。

在国产大机型还在努力追赶ChatGPT步伐的同时,其更先进的机型与OpenAI相比差距逐渐扩大。

值得一提的是,2020年GPT-3发布时,OpenAI详细披露了模型训练的所有技术细节。中国人民大学高阳人工智能研究院执行院长文表示,国内很多大型模型其实都有GPT-3的影子。

然而,随着OpenAI在GPT-4上改变开源策略,并逐渐走向封闭,一些大型国内模型失去了复制的追赶路径。

再看中国,即使号称测试榜第一,留给一万件事的挑战依然难以乐观。

在发布了Yi-34B的预训练模型后,李开复宣布已经在内部开始了下一个千亿参数模型的训练。相比之下,国内很多大型模型公司都完成了千亿模型的上市和发布。

除了追赶先行者,如何在业务落地上取胜,将是李开复更大的挑战。

经历过AI 1.0时代的李开复提到,他“必须做出一个能快速创收的应用,能产生非常好的利润。收入是优质的、可持续的,而不是一次性给某家公司铺单子。”

李开复把商业化的突破口放在了C端应用上。李开复也认为,比移动互联网大十倍的平台机会将在AIGC时代诞生,将会有一个新的机会来改写现有的软件、用户界面和应用,改写用户交互和入口。“就像Windows推动了PC的普及,Android催生了移动互联网的生态,AIGC也将诞生新一批AI优先的应用,诞生AI主导的商业模式。”

要实现上述宏伟愿景,不仅要让其通用大机型足够先进,还要在众多国产大机型的竞争中脱颖而出。

恒业资本创始合伙人蒋易认为,在这一波AI大模型中,最终能在中国生存下来的一般大模型玩家,“可能有三个,已经不错了。因为训练一个大型模型需要大量的投入和大量的资金,而且不一定能赶上GPT-4。”

无论Windows还是Android,每个时代都只有一个。李开复如何让一切成为AIGC时代的唯一?

您可能还喜欢...