关灯 特大 直达底部
亲,双击屏幕即可自动滚动
正文 第57章 孙博的能力
微软这孤注一掷的效果,不一定会好啊!”有人这么回了一句。



“效果不好是一定的,花费两倍的价格,可能能得到15倍的性能,最多也就如此了,想要赶上耳语的能力,我觉得不大行。



“其实openai自己肯定也清楚,gpt4乃至后续没有发布的45版本,之所以没这么堆规模,就是在卡能效比的两个节点。



“再堆规模下去,性价比会越来越低不高。但现在不是被耳语逼的没办法了吗?”



孙博本就是研究前沿理论的,现有模型的理论上限他清楚的很,哪个算力节点卡一下性价比最高他大约也都清楚。



到了一定程度,盲目的加规模肯定得不偿失。



()



第57章 孙博的能力



第(3/3)页



除非迫不得已,一般不会这么干的。



纪弘一边看着孙博的回复,一边分析这个人,越分析越是感兴趣了——这是一个有真材实料的理论家。



“如果能挖来卷耳科技,将会是一个巨大的臂助。”



……



纪弘在念叨孙博的时候,孙博也在念叨他——起因就是纪弘发的那个私信。



“最优化理论的一个分支,目的是为了解决大模型之间交流的问题,这人该不会是卷耳智能科技的创始人纪弘吧?”



孙博看了好一会儿,想到了纪弘在河州大学采访时说的一个两个三个多个模型串联得出更精准更切合先说你的结果,那些话。



“这是实现agi通用人工智能的一个思路吗?”



孙博看的有些迷,是因为很多关键点纪弘都给他略去了,但大致的框架还在,他知道这东西在解决什么问题。



事实上,他本人也在研究这个。



“但是,大模型之间的交流是以数据和信息为载体的,通常来说,交流只是扩大了信息量。”



比如可以利用一个大模型的数据去快速的训练另一个大模型——这一点大家都知道,千寻的文心一言用过gpt的数据。



后来,谷歌的大模型也被爆出过用了文心一言的训练数据,大家利用来利用去的,这都不是些稀罕事儿。



“但这还是要走训练过程的啊,只是少了数据清洗和标定过程以及相关的人力成本而已,两个模型的能力并不能直接相加,能利用的只是数据而已!”



“除非……”一个大胆的想法在孙博脑海里渐渐的浮现出来:“除非,有办法让智慧化的能力直接交流甚至融合。这……”



饶是只是一个想法,孙博也被自己吓了一跳:如果两个模型的智慧能力本身能够融合和共同利用,但这可能吗?相当于人之间的交流了啊这!



“类思考……”



刚还想着绝不可能呢,但类思考三个字一出来,孙博脑袋直接“嗡”的一声,这已经有先例了:“这人绝对是纪弘没跑,他这是对我有兴趣?”



求追读,尤其是明天后天的章节,关系到这本书能否冲出分类,能否pk上三江。



所以,恳请大家这两天一定要追读万分感谢!



(本章完)
(2/2)
  • 加入收藏
  • 友情链接