月之暗面被曝融资超10亿美元,阿里领投
2月19日,据多家媒体报道,AI创业公司月之暗面(Moonshot AI)近期已完成新一轮超10亿美金融资,由阿里领投,阿里单独就投资8亿美元,其他参与方包括红杉中国、小红书、美团,投后估值约25亿美元。
月之暗面的上一轮融资为2023年获得的超2亿美金融资,投资方包括红杉中国、真格基金等。
如果消息属实,这是国内AI大模型公司迄今获得的单轮最大金额融资。
不过,月之暗面方面表示,对具体融资消息暂不方便评论。
月之暗面创立于2023年3月,致力于寻求将能源转化为智能的最优解,通过产品与用户共创智能。创始团队核心成员参与Google Gemini、Google Bard、盘古NLP、悟道等多个大模型的研发,多项核心技术被Google PaLM、Meta LLaMa、Stable Diffusion等主流产品采用。据36氪报道,目前月之暗面团队人数已超80人。
月之暗面创始人为90后“学霸”杨植麟。资料显示,清华求学时,杨植麟师从清华大学计算机系知识工程实验室(KEG)带头人,智源研究院学术副院长、悟道项目负责人唐杰教授。2015年,杨植麟进入卡内基梅隆大学(CMU)语言技术研究所(LTI),跟随苹果公司AI负责人Ruslan Salakhutdinov和Google AI智能首席科学家William W. Cohen攻读博士学位。毕业后,杨植麟曾效力于谷歌大脑研究院和Meta(Facebook)人工智能研究院。
杨植麟曾在接受采访时曾表示,无论是文字、语音还是视频,对海量数据的无损压缩可以实现高程度的智能。
无损压缩的进展曾极度依赖「参数为王」模式,该模式下压缩比直接与参数量相关,这极大增加了模型的训练成本和应用门槛,而月之暗面认为:大模型的能力上限(即无损压缩比)是由单步能力和执行的步骤数共同决定的。单步能力与参数量正相关,而执行步骤数即上下文长度。
Moonshot AI相信,更长的上下文长度可以为大模型应用带来全新的篇章,促使大模型从 LLM时代进入Long LLM (LLLM)时代:每个人都可以拥有一个具备终身记忆的虚拟伴侣,它可以在生命的长河中记住与你交互的所有细节,建立长期的情感连接;每个人都可以拥有一个在工作环境与你共生(co-inhabit)的助手,它知晓公域( 互联网)和私域(企业内部文档)的所有知识,并基于此帮助用户完成OKR;每个人都可以拥有一个无所不知的学习向导,不仅能够准确的给你提供知识,更能够引导你跨越学科间的壁垒,更加自由的探索与创新。
自2023年成立以来,月之暗面已经完成了从通用大模型到上层应用的布局。在大模型层,月之暗面已训练了千亿级别的自研通用大模型。
在应用层,月之暗面于2023年10月正式推出首个面向C端的产品“Kimi智能助手”,这是月之暗面做To C超级应用的第一次尝试。Kimi智能助手支持20万汉字的长文本输入,主打无损记忆。
“长文本(Long Context)”是月之暗面当前主打的技术之一,这来源于团队希望突破大模型的落地瓶颈——大模型的智慧之所以能“涌现”,主要是因为通过扩大参数规模,突破到了千亿级别。但当前大模型落地的瓶颈,不仅有参数规模大小(即模型计算能力),还有模型的“内存”大小,即记忆力。每轮对话能处理多少上下文信息,决定着AI应用的体验好坏。
据当前公开信息,除月之暗面以外,包括智谱AI、MiniMax、百川智能、零一万物在内的创业公司,估值都已达10亿美金。
此外,阿里已投资包括智谱AI、百川智能、零一万物在内的创业公司,腾讯也投资了智谱AI、百川智能、MiniMax等企业。
显然,互联网大厂也在通过投资的方式弥补赛道布局的空白。
北京时间2月16日凌晨,谷歌发布了最新的多模态模型Gemini Pro 1.5;仅仅几个小时后,OpenAI发布了首个AI视频模型Sora,可以生成超过60秒的视频,再次引发全球轰动。
自ChatGPT爆火以来,从文本到图像、视频,多模态模型的发展速度一直在加快,但训练成本更高,对于资本和人才的需求也在同步提升。以融资的方式储备弹药,是创业公司在短时间内完成突破的最优解。
免责声明:本网站所有文章仅作为资讯传播使用,既不代表任何观点导向,也不构成任何投资建议。】