白色商务车还停在原位,车窗上映着路灯的橘黄色反光,看不清里面坐的人。
林宇收回视线,按下了回拨键。
嘟——
第二声还没响完,对面接了。
“林老师?”
声音比他预想中年轻,语速快,带着一种常年泡实验室的人才有的干脆。
“沈教授,刚看到您的短信。”
“方便聊几分钟吗?”
“方便。”
没有“久仰大名”,没有“冒昧打扰”,连“您最近很火”这种废话都省了。
“林老师,你展示课上那个对话程序的底层架构,我反复推演了三个小时。”
林宇握着手机的手微微收紧。
展示课的前十二分钟流出去了,那部分只有投掷粉笔和预测股票,跟ai架构的核心代码八竿子打不着。后半段被王志海全面封锁,所有学生手机里的影像资料都做了处理。
沈一舟怎么拿到的?
“沈教授,展示课后半段的内容已经被限制传播了,您的信息来源是?”
电话那头顿了一拍,然后沈一舟笑了。
那笑声里没有心虚,反而很坦荡。
“省教育厅有个朋友,在现场听了你的课。他没拍视频,但手抄了几页你的板书推导过程。不是代码,全是数学公式。拍了照片传给我的。”
停了一下。
“我根据你的数学推导,反向还原了程序的大致架构走向。”
林宇的拇指在裤缝上蹭了两下。
几页板书推导,还不完整,中间肯定有断层和缺失。
沈一舟硬是从这些残缺的碎片里,把架构的核心逻辑拼了出来。
对方不愧是顶尖学府的人。
“方案是我自己推的。”林宇回答。
“能解释一下压缩维度的动机吗?64维降到16维,按常规理解,信息损失会非常严重。”
林宇脑子里,系统返还的宗师级ai知识体系自动运转。
“因为64维本身就过剩了。”
他往下讲,没用任何学术腔。
“主流架构用64维,是五年前transforer团队做abtion study时的最优解。但那是五年前的数据规模。现在训练语料翻了上千倍,高维度的边际收益在急剧衰减,大部分维度占了算力,对语义理解的贡献接近于零。”
“继续。”
“压到16维确实会丢一部分细粒度的语义信息。所以我在交叉层加了动态加权来补偿。让模型自己决定,每次推理中哪些维度值得保留,哪些直接丢。权重不是固定的,根据上下文实时调整。”
电话那头传来笔尖划纸的声音,急促、密集,刷刷刷响了十几秒。
“林老师,再问一个。”
沈一舟的语气变了,之前是学者讨论技术时的精准和克制,现在多了一层东西,是一种按捺不住的急切。
“幻觉问题。模型一本正经地编造事实,当前最大的痛点。你有没有想过解决方案?”
林宇瞬间站直了身子。
这个问题他不是“想过”。是系统返还的知识体系里,已经自然生成了一条完整路径。
“在生成层之前,插一个事实锚定模块。基于贝叶斯后验概率。”
“什么思路?”
“现在主流做法是生成之后做事实校验,拿外部知识库去比对。但本质上是'先说了再查',效率低,而且模型已经生成的内容会形成路径依赖,纠错成本极高。”
他顿了一下。
本章未完,点击下一页继续阅读
(1/3)