联华证券
什么是股票融资 速度秒杀GPT们10倍,国外的DeepSeek时刻来了?
什么?AI 界又整新活了?什么是股票融资
这次虽然没像 DeepSeek 、 Manus 们那样搞得人尽皆知,但可能对 AI 界发展的影响还真不小。
前段时间,有个名不见经传的小公司 Inception Labs 搞了个大新闻,说是开发出了 全球首个商业级扩散大模型( dLLM )Mercury 。
而这个所谓的扩散大模型,可能要会掀起一股浪潮, 彻底颠覆大模型 3 年多来的基础路线。
人家也实打实放出了数据, 在一众测试里, Mercury Coder 基本是一路吊打 GPT-4o Mini 和 Claude 3.5 Haiku ,这些大家都快用烂的模型了。
而且,这些同台竞技的模型们,还特地专门为生成速度进行过优化,但 Mercury 还是比他们 快了多达 10 倍。
展开剩余92%不仅如此, Mercury 还能在 NVIDIA H100 芯片上,实现每秒超过 1000token 的处理速度,而常见的大模型想要实现这个速度,往往都得用上专门定制的 AI 芯片。
要知道,为了实现更高的 token 处理速度,定制化 AI 芯片几乎成了各个厂商的新战场。
除了速度超级超级超级快之外,我们也能从 Artificial Analysis 的测试坐标系里看出, Mercury 的生成质量也是杠杠的。
虽然目前还不如顶尖的 Claude3.5 Haiku 等,但考虑到它是一目十行的效率,能保持这个生成质量已经是非常哇塞了。
我们也在官方放出的 Mercury Coder Playground 里简单试了几个例子,一顿测试下来发现生成效果确实不错,而且速度真的是极快。
提示词:用HTML5写一个贪吃蛇游戏 (Implement the game Snake in HTML5.Include a reset button.Make sure the snake doesn't move too fast . )
注意,这里的生成录屏动图并未加速
提示词:用 HTML5 , CSS 和 Java 写一个扫雷游戏( Write minesweeper in HTML5 , CSS , and Java.Include a timer and a banner that declares the end of the game .)
提示词:用 HTML5 做一个 Pong 游戏 ( Create a pong game in HTML5. )
可能不少差友看到这估计决定,这也没多牛啊,说什么 AI 界可能要变天了?
Mercury 的厉害的点倒不是它的实际效果有多棒,更重要的是它给 AI 界带来了一众新可能 :谁说大语言模型就一定要走 Transformer 的路线?
在这个 AI 时代, Transformer 和 Diffusion 大家估计都听得耳朵起茧子了,一会是 Transformer 单干,一会是 Diffusion 单飞,又或者是两者一起合作。
但本质上来说,这两者其实代表了 AI 的两个不同进化方向,甚至可以说, Transformer 和 Diffusion 的 “ 思维 ” 机制不同。
Transformer 是“ 典型 ”人类的链式思维,它有一个自回归的属性,就是它有个先后的概念,你得先生成了前面的结果,才能想出后面的玩意儿。
所以我们现在看到的 AI 生成,都是逐字逐句,从上从下一点点长出来的。
就像这样( 这还是加速过的生成速度 )
而 Diffusion ,则是反直觉的, 直接从模糊去噪从而到清晰的过程。
就是你问他问题,他不会有整理逻辑,按 1 、 2 、 3 、 4 ……步骤回答你的想法,而是脑子直接想好了所有答案雏形,但这些答案全都是模糊不清的,然后一步步把所有答案一起变清晰,直到生成结果。
用生活里的一个最常见的例子就是去配眼镜,当你拿掉眼镜看东西的时候,一整片都朦胧不清,但你确实都看到了,随着一片片镜片加上去,最终你看清了每一个字。
所以 Mercury 生成的结果都是一大片模糊的乱码,然后一顿 quickly quickly biu biu biu , ber 得一下就全搞定了。
就像这样
关于这俩的效果对比,我感觉历史上曾经有一个著名发布会上,有人曾用过更直观的对比,可能更形象化帮助大家理解。
CPU 就好比如今的 Transformer
GPU 就好比如今的 Diffusion
其实光从我们这么简单的描述看起来,大家也能明白, Transformer 的确是更符合大家逻辑的思维方式,所以在大语言模型刚爆红的时候,基本就是 Transformer 一个人勇闯天涯。
但逐渐的, Transformer 开始展露自己的不足。
其中最让人头疼的就是, Transformer 的注意力机制看起来很优秀的背后,是计算复杂度 (计算复杂度公式为 O ( n ² d )( n 为序列长度, d 为特征维度 ) )指数级别增长。
计算复杂度的爆炸增长带了多方面的制约,比如模型推理速度显著下降,在长文本、视频等领域,生成速度显然无法满足实际需求。
进一步的,复杂度不断升高,所需要的硬件资源也同样指数级增长,这种硬件需求阻止了 AI 真正走进大家生活。
所以一直以来, 业界都在想着法地缓解 Transformer 模型的计算复杂度。
像通过量化、蒸馏、压缩模型的 DeepSeek 能够爆火出圈,其实也是建立在这种迫切需求上。
那 Mercury 的出现,似乎也在提醒大家,如果降低 Transformer 的计算复杂度太难的话,要不试试新路子?
而且 Mercury 背后的 Diffusion 路线,大家并不陌生。
比如早期爆红的 stable Diffusion , Midjournery 、 DALL-E 2 里,都看到了 Diffusion 模型的应用。
甚至还出现了像是 OpenAI 的 sora 模型,就是利用了 Diffusion Transformer ( DiTs )这种 Transformer 和 Diffusion 混合双打模型。
虽然理想很美好,但 Diffusion 此前几乎都被各路人马判了死刑,因为他们觉得这货 驾驭不了语言模型。
因为 Diffusion 的特点是没了自回归,不用依赖上下文,从而可以节省资源,加快生成速度。
但这么一来, 生成精度有点难以把握,就像现在文生图、文生视频的各种模型,依旧难以控制手部、吃面条、文字等高精度的生成。
可这次 Mercury 的突破性成果,的确也第一次向大家验证了, Diffusion 也能干 Transformer 的活。
不过可惜的是, 目前 Mercury 并没有公开任何技术文档,我们无法进一步得知它是如何搞定生成内容质量难关的。
但我们从它挑的对手比如 Claude3.5 Haiku 、 GPT4-omini 、 Qwen2.5 coder 7B 、 DeepSeek V2 lite 等等这些袖珍版大模型里,也能看出来,显然最强大的 Diffusion 语言模型 Mercury 也还没法做得特别大。
甚至经过我们测试发现,除了官方推荐的提示词生成效果比较精准以外,如果用一些自定义提示词,它的出错概率就高得有点夸张了。
而且生成的稳定性也相当一般,经常第一次生成效果还不错,再测试一次结果反而不会了。
提示词:用 HTML 画出太阳系的模拟动画 ( Use HTML to write an animation of the solar system simulation operation )
但毫无疑问, Mercury 的成果是了不起的,特别在考虑到 Diffusion 在多模态生成上的强势地位,也让人不禁想象,如果 Diffusion 的路线才是 AI 大模型更正确的道路 ( 好像也不是不可能吧 ),未来的联动进化好像更水到渠成些。
前不久,差评君刚看了一部名为《 降临 》的电影,里面的外星人就不是按照人类这样 1 、 2 、 3 、 4 ……的链式思维逻辑,不同的思维方式显然会带来更多的可能性。
那问题来了,谁说 AI 就得要像人类一样思考呢?对他们来说,是不是 Diffusion 的思考方式更符合 “ 硅基生命 ” 的属性呢?
当然,这些都是差评君的瞎瘠薄扯淡,不过有意思的是, Mercury 既是太阳系的水星,也是罗马神话中的信使,他们俩的特点就是跑得飞快,而在占星学里,它又代表着人的思维方式和沟通能力。
我们也不妨期待, Mercury 的出现,能给 AI 带来新的路子。
撰文:八戒
编辑: 江江 & 面线
美编:萱萱
图片、资料来源:
X.com
Mercury官网
OpenAI:Generating videos on Sora
techcrunch:Inception emerges from stealth with a new type of AI model
AimResearch:What Is a Diffusion LLM and Why Does It Matter?
知乎:如何评价Inception Lab的扩散大语言模型Mercury coder?什么是股票融资
发布于:浙江省