第233章 LPU的进展
学霸的征途是星辰大海 作者:佚名第233章 LPU的进展
时间如白驹过隙,转眼已是11月中旬。
距离徐辰那篇《logic is also you need》在arxiv上发表,已经过去了两个多月。
而华国的秘密布局,更是已经悄然推进了三个多月。
这三个月里,虽然表面上风平浪静,但在半导体和ai的核心圈层,早已是暗流涌动。
……
十一月中旬,深圳,南山。
这间位於地下二层的恆温实验室里,这里是海丝半导体的绝密测试区。
总工程师何庭波站在单向玻璃后,並没有像往常那样盯著满屏的数据,而是闭著眼睛,似乎在听著什么。
实验室里摆著两台测试机柜。
左边那台,风扇正在发出喷气式飞机起飞般的啸叫,红色的过热警报灯疯狂闪烁。里面插著的,是目前市面上最顶级的算力怪兽——英伟达h100。
右边那台,却安静得像是一块石头。只有机箱面板上那颗绿色的指示灯,以一种极其缓慢、悠閒的节奏呼吸著。里面躺著的,是刚刚流片回来的工程样片——“昇腾lpu-alpha”。
“跑完了。”
操作员的声音打破了死寂。
何庭波睁开眼:“报数据。”
“任务:slrm架构下的千万级逻辑门推演。”
“h100组:耗时4分12秒,峰值功耗700w,核心温度85度。gpu利用率……只有12%。”操作员看著数据,咽了口唾沫,“因为大量的逻辑跳转导致cuda核心一直在等待数据,显存带宽都快被撑爆了,算力却发挥不出来。”
“lpu组呢?”
“耗时……58秒。”
操作员的声音有些颤抖,仿佛不相信自己的眼睛。
“峰值功耗45w,核心温度……室温。”
何庭波没有说话,只是走到玻璃前,看著那台安静的机柜。
4分12秒对58秒。
700w对45w。
4nm先进位程对14nm成熟工艺。
这是一场不对称的屠杀。
没有欢呼,没有掌声。在场的工程师们只是面面相覷,眼神中流露出的不是狂喜,而是一种近乎敬畏的恐惧。
他们比谁都清楚这意味著什么。
当英伟达还在用“蛮力”去模擬逻辑的时候,徐辰设计的架构,已经让晶片学会了“思考”。
“封存数据。”何庭波的声音很轻,却在空旷的实验室里迴荡,“把这台机器的代號,从『备胎』改成……『破壁者』。”
……
虽然核心数据被严密封锁,但在这个信息爆炸的时代,总有一些风声会从墙缝里漏出来。
b站,科技区。
一个名为“极湾geekerwan”的up主,发布了一条名为《有些事不能细说,但国產晶片可能真的要变天了》的视频。
视频里,up主云非並没有像往常那样拿著显卡跑分,而是坐在镜头前,神色有些神秘,甚至带著点压抑不住的兴奋。
“兄弟们,最近我去了趟深圳,本来是想去华强北淘点电子垃圾的,结果被几个『菊厂』的朋友拉去喝茶。签了保密协议,具体的参数我一个字都不能说,说了號就没了。”
“但我可以给你们打个比方。”
云非拿起桌上的一个魔方,又拿起一把锤子。
“以前我们搞ai,就像是用锤子砸魔方。只要力气够大,锤子够硬,总能把魔方砸开。”
“这也是英伟达一直在做的事,他们造出了世界上最硬的锤子。”
“但是这次……”
放下了锤子,轻轻转动了一下魔方。
“我看到了一种全新的解法。它不需要多大的力气,也不需要多硬的锤子。它只是……找到了那个公式。”
“咔噠。”
魔方復原。
“那种丝滑感,那种降维打击的感觉……真的,我当时在现场,鸡皮疙瘩都起来了。”
“我只能透露一点:这玩意儿不挑食。哪怕是咱们国內那种成熟工艺,也能跑得飞起。”
“时间呢,我不敢保证啊,我估计最快可能半年,慢一点一年左右,应该就能看到商业化產品问世了。当然,都是我猜测啊,猜不准我不负责。”
弹幕瞬间炸了。
【谜语人滚出哥谭!】
【臥槽?真的假的?云飞从来不吹牛逼的啊。】
【成熟工艺?难道是说晶片製程么?】
【传说中的存算一体?还是光子晶片?】
【別猜了,前几天我看新闻,科技部批了个『新一代认知智能计算架构』的专项,好像就是以slrm模型为原型开发的。】
评论区里,除了兴奋的吃瓜群眾,很快就涌现出了一批画风诡异的帐號。
“笑死,又在吹牛逼了。之前吹光刻机,现在吹lpu,能不能务实一点?”
“承认差距有那么难吗?人家英伟达几万人的团队搞了几十年,你换个名字就能弯道超车?做梦呢?”
“又是『沸腾体』,能不能別整天遥遥领先了,看著尷尬。”
这些帐號id大多是一串乱码或者新註册的小號,言辞激烈,逻辑统一,显然是有组织的水军。
他们试图用冷嘲热讽,把这股刚刚燃起的希望之火给浇灭。
毕竟,对於某些势力来说,中国ai的崛起,是他们绝对不愿意看到的噩梦。
……
除了硬体圈的传闻,软体圈也不甘寂寞。
知乎上,一个名为“ai观察者”的大v,也发了一篇长文爆料。
《国產大模型的新赛道?通义、字节、月之暗面都在秘密测试新架构!》
文章里写道:
“据內部人士透露,国內几家头部ai大厂,最近都在秘密测试一种非transformer架构的新模型。据说这种模型在逻辑推理和长文本处理上有著惊人的表现,完全没有『幻觉』问题。”
“该模型据悉仍在非常早期的阶段,但是內部负责人表示在某些小数据集上训练后表现非常好。”
“工程师团队目前据说处在软体等硬体的状况下,因为缺少匹配的硬体,目前还没有办法跑大参数的模型,但是据说这个过程很快会有改进。”
“目前团队的重点还是提效和降本上,其中某个团队的运行成本已经降低了30%,而且还有很大的降本空间。”
“我有幸体验了一个內部测试版的demo。说实话,生成速度很慢,但是回答的內容非常清晰,几乎没看出有什么幻觉类的问题。”
“不过目前测试只能限定在一些小的知识范围內,应该也和小模型demo有关。”
“虽然目前的综合能力可能还打不过gpt-4,甚至连gpt-3.5都够呛。毕竟人家发展了八年,咱们这个新架构才搞了几个月,数据量和训练时长都还不够。”
“但这就像是一个刚出生的天才婴儿,虽然现在还不会跑,但你能看到他眼里的光。这是一种全新的可能性!”
文章下面,评论区也是两极分化。
“真的假的?逻辑推理无幻觉?这可是llm的死穴啊!”
“半成品也好啊!只要路子对了,早晚能追上!”
“得了吧,又是ppt造车。连个能用的產品都没有,就敢吹『新赛道』?等拿出来再说吧。”
“估计又是骗经费的项目。transformer已经是公认的最优解了,非要另起炉灶,这不是瞎折腾吗?”
……
无论是硬体圈的lpu传闻,还是软体圈的新模型爆料,都像是在平静的湖面上投下了一颗颗石子。
虽然水军在疯狂地泼冷水,虽然公眾依然半信半疑,但那种“山雨欲来风满楼”的气息,已经越来越浓烈。
所有人都隱隱感觉到,一场巨大的变革,正在酝酿之中。
