关灯 特大 直达底部
亲,双击屏幕即可自动滚动
正文 第497章 算力榨干
>


他老早就找豆包,恶补了人工智能的发展史。



深度学习和神经网络之所以在2010年之后才开始大爆发,并不是因为算法突然取得了什么逆天的理论突破。



纯粹是因为算力终于跟上了。



在豆包提供的未来时间线里,拯救人工智能算力危机的,是英伟达的gpu。也就是大家俗称的显卡。



gpu这玩意儿,天生就是用来做大规模并行计算的。



再后来,谷歌为了搞定自家的算法和推荐系统,干脆自己下场研发了tpu,一种专门为ai定制的专用芯片。



夏冬的手指在桌面上轻轻敲击着,发出有节奏的哒哒声。



“陈默,泽明,你们有没有想过,”夏冬终于开口了,目光扫过两位技术大拿,“为什么我们堆了那么多顶配的cpu,算力依然捉襟见肘?我们的算法,到底在让这些cpu干什么活?”



陈默皱着眉头想了想:“主要就是神经网络的层级计算,里面全是大规模的矩阵乘法。”



“对,问题就出在这里。”



夏冬停止敲击桌面,“cpu的架构设计初衷是什么?是处理复杂的控制逻辑,它里面有大量的分支预测、指令调度单元。”



“打个比方,cpu就像是一个精通微积分的大学老教授。你让他解多复杂的数学题他都会。”



为了让非纯技术的苏晚晴也能听懂,夏冬顿了顿,摊开双手继续说道:“但是,我们推荐算法需要的,是极其海量、极其枯燥的简单矩阵乘法。”



“这等于你雇了一万个大学老教授,每天让他们坐在办公室里算一加一等于几。”



陈默和吴泽明愣了一下。



“他们能算,”夏冬一针见血地指出,“但是效率极低,而且成本高得离谱。大炮打蚊子,从根源上就错了。”



两位顶尖的技术大拿对视了一眼,脑子里仿佛劈过一道闪电。



陈默喃喃自语:“所以……通用的cpu,从硬件物理架构上就不适合跑我们的算法?”



“没错。”夏冬顺势抛出一个引导性的问题,“既然一个精通微积分的老教授算得慢,那我们找一万个只会算乘法的小学生来并行计算呢?”



“我们需要的是高并发、低逻辑复杂度、海量的浮点运算单元……”



吴泽明推了推眼镜,眉头微皱,大脑在疯狂检索现有的硬件架构:“夏冬,你说的这种硬件特征,听起来怎么那么像电脑里的显卡?”



“确切地说,是gpu。”夏冬打了个响指,“泽明抓住了盲点。”



夏冬表情淡定,内心其实正在快速梳理之前用豆包查阅的资料。



早在2007年,英伟达就推出了cuda架构,让gpu不仅仅能打游戏渲染图像,还能进行通用计算。



现在这个时间节点,多伦多大学的hton团队、斯坦福大学的吴恩达,其实已经开始尝试用gpu加速神经网络训练了。



效率足足比cpu高出了几十倍。



到了2011年,吴恩达更是用12块gpu,生生跑出了相当于2000个cpu的深度学习算力。



这就是降维打击。
(2/2)
  • 加入收藏
  • 友情链接