衡宇 发自 凹非寺
量子位 | 公众号 QbitAI
大模型能识别一张图里三个人在喝咖啡,好有意思。但那有什么用呢?
上面这个感慨,来自零一万物创始人兼CEO李开复博士。他在零一万物一周年发布会上表示,不应该只秀demo,而应结合真实场景,解锁2C应用的创新:
我们所有的模型,对用户产生价值,才是真的有价值。
去年3月,李开复宣布以Project AI2.0之名入局大模型,而后领衔创新工场第七家塔尖孵化公司零一万物,冲入大模型赛道。
如今,零一万物成立一年有余,旗下模型陆续推出,成绩霸榜;开源闭源两手抓,同步推进;API平台开放,全球可用;产品AI助手万知,小程序免费可用。
在大模型之路上全栈推进,似乎成了外界对零一万物的共同认知。
而且在市场方面,零一万物成立不足一年就跻身独角兽行列,被外界称为国产大模型五虎之一。
其海外2C产品上线9个月用户近千万,今年单款产品预计收入过亿元,产品ROI(投入产出比)接近1。
而就在现在,当大模型赛道来到第二年,参赛者从狂奔转向长跑马拉松之际,零一万物又推出了一箩筐新模型。
开闭源双轨策略,统统上新
此次发布会,零一万物在闭源模型和开源模型方面都有新动作。
先说闭源方面。
此次零一万物重点推出的闭源模型是Yi-Large。
如下图显示,零一万物官方给出的评测结果中,推理方面,Yi-Large在HumanEval和MATH都位列第一,超越GPT-4、Claude3 Sonnet、Gemini 1.5 Pro以及LLaMA3-70B-Instruct(都是时下大模型领域的佼佼者)。
第三方评测,Yi-Large的中英双语能力也不俗。
李开复表示,Yi-Large的下一步是采用MoE架构的Yi-XLarge。
Yi-XLarge已经启动训练,虽然时间不长,但根据跑分结果,Yi-XLarge的效果都好于Large。
在初期训练中,Yi-XLarge MoE已经与Claude-3-Opus、GPT4-0409等国际厂商的最新旗舰模型互有胜负。
△Yi-XLarge 初期训练中评测(2024年5月12日)
再来看看开源模型这边。
此次Yi-1.5开源系列可以说是大手笔,同时开源了6款模型,分别是:
Yi-1.5-34B Base + Chat
Yi-1.5-9B Base + Chat
Yi-1.5-6B Base + Chat
此次开源的模型版本对此前用户反馈的数学、代码短板有了重点改进,在评测集上,Yi-1.5-34B表现不逊色于70B参数尺寸的模型,在同尺寸中则有更好的表现。
李开复在现场表示,开源不是发布模型就结束了,维护社区也是重要的一环。
在国际开发社区内,零一万物Yi系列模型有各种应用,从学习、导航、销售、 API应用、商业写作等,都已经开始积累早期用户。
另外,李开复很自豪看到开源社区上有很多基于Yi系列大模型的公益项目,“这么多面临病魔折磨的病人和家属,能够用大模型来了解怎么样得到最好的治疗。科技真正能造福人类,是特别让人欣慰的事情。”
最后,李开复宣布了Yi API平台多尺寸、多场景的全球上线。
他重点介绍了基于千亿参数SOTA基座模型打造的Yi-Large API,目前价格是20元/100万tokens,约为GPT-4-turbo定价的三分之一;并表示,如果想有更高的性价比,可以选择下图第二排更具性价比的模型。
“我希望今天发布之后,无论是创业者、大公司、个人玩家,还是公益组织,都没有理由不尝试用一下我们的Yi-Large的API。”李开复说。
引入“技术”和“成本”的TC-PMF
在移动互联网的鼎盛时期,PMF(Product-Market Fit,产品市场契合)曾是众多初创企业追求的核心目标。
然而,大模型时代的到来,带来了很多变革。
两个时代在创业基础设施层面存在着决定性的差异:
譬如,在移动互联网时代,用户规模增长所带来的边际成本很低。
但是在大模型时代,模型训练和推理成本构成了每一个创业公司必须要面临的增长陷阱。用户增长需要优质的应用,而优质应用离不开强大的基座模型,强大基座模型的背后往往是高昂的训练成本,接着还需要考虑随用户规模增长的推理成本。
因此,李开复认为,PMF这一概念已经不能完整定义以大模型为基础的AI-First创业,应当引入 Technology(技术)与 Cost(成本)组成四维概念。
这就是TC-PMF。
李开复表示:
做 Technology-Cost Product-Market-Fit(TC-PMF),技术成本和产品市场契合度,尤其推理成本下降是个“移动目标”。
这比传统PMF难上一百倍。
他介绍了零一万物的TC-PMF方法论。
首先是全球化布局。
零一万物的目标是成为一家全球化的大模型公司。去年,欧美市场已经历GPT时刻,用户对AI应用的熟悉程度高,商业化进展较快,因此,零一万物选择先基于全球顶尖模型打造零一万物的海外产品,验证TC-PMF。
今年,零一万物则开始接用自己的SOTA基座模型,不断完善产品的用户体验。
据介绍,零一万物海外2C产品,今年预计单款产品收入过亿元,产品ROI接近1。
第二是模基共建。
零一万物认为,模型的训练、服务、推理设计,与底层Infra架构和模型结构必须高度适配。目前,零一万物全栈AI Infra,端到端实现全球最先进的FP8训练框架,也是目前国内唯一达到这个成绩的队伍。
在多方面优化后,零一万物千亿参数模型训练成本,同比降幅达一倍之多。
第三则是模应一体,简单来说,就是产品从真实用户体验出发,和模型迭代形成正循环。
去年9月起,零一万物率先出海验证TC-PMF,模型一上线立即和产品形成用户飞轮。
同时,运用自研性能/召回率最佳的向量数据库笛卡尔,零一万物部署成本只需要之前采购的第三方的18%。
今天万知体验这么丝滑速度这么快,“一部分的理由就是来自于零一万物的 RAG工程,来自我们自研的向量数据库”。
最后一点是Al-First。
李开复在现场谈到,应用创新需要清晰回答 When、How、Who。
过去一年,零一万物在狂奔什么?
去年3月下旬,创新工场董事长兼CEO李开复正式宣布以Project AI2.0之名入局大模型。
3个月后,李开复带麾下AI大模型公司零一万物正式对外发声,这也是创新工场塔尖孵化的第7家公司。
11月,零一万物的首款开源大模型——Yi系列大模型正式亮相,共有两款,分别是Yi-34B和Yi-6B。成为彼时唯一成功登顶HuggingFace的国产大模型,且以34B的大小碾压Llama-2 70B和Falcon-180B等一众大尺寸大模型。
12月,Yi-34B-Chat公布新成绩,在Alpaca经认证的模型类别中,以94.08%的胜率,超越LLaMA2 Chat 70B、Claude 2、ChatGPT。
今年以来,零一万物动作频频。
1月,零一万物交出多模态大模型答卷,同属Yi系列,同样具有两个版本:Yi-VL-34B和Yi-VL-6B,面向全球开源。
官方给出的测试数据是,Yi-VL-34B在英文数据集MMMU上准确率41.6%,仅次于准确率55.7%的GPT-4V,超越一系列多模态大模型。
紧接着,来3月,零一万物还在提速。
90亿参数Yi-9B紧锣密鼓地面世了。它号称Yi系列中的“理科状元”,“恶补”了代码数学,同时综合能力也没落下。
尤其要提到,Yi-9B对开发者格外友好,Yi-9B(BF 16)和其量化版Yi-9B(Int8)都能在消费级显卡上部署。
仍是3月,零一万物API开放平台出场,共为开发者提供三个版本的模型,支持200K上下文窗口,并具备多模态能力。
进入5月,就在几天前,零一万物正式官宣了一站式AI工作平台——万知。
它可以做会议纪要、周报、写作助手,还可以速读任何文档,帮你做PPT。
更关键的是,它更适合中国职场宝宝体质,是为国内打工人量身打造的神级生产力工具。
现在,李开复每天要在万知上进行100条左右的提问,了解产品的最新使用体验,及时反馈badcase。
他提到,OpenAI是融了超级超级多的钱,先追求GPU,其次考虑应用,零一万物的模式则是用更少的芯片、更低的成本,找到TC-PMF。
做一个伟大的大模型公司,底层不能差,但不能只有底层。
同样重要的是,应用怎么开创,怎么让做产品的人也懂模型,懂模型的人也做应用。
我们当然相信AGI会发生,我们也会推进AGI的发生,但同时我们是务实的,我们的精力不会花在行业预测上,也不会把大力出奇迹作为唯一思维。OpenAI可以去尝试这条道路,但这不会是我们走的道路。
One More Thing
活动最后,李开复分享道,一年前,他就跟投资人自愿主动承诺:10年内自己不会套现。
他说:
“我认为套现最好的方式是赶快上市,这是我们未来努力的方向。”
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态