笔趣阁

爱上中文>重生之ai教父有盗版嘛 > 第43章 又双叒叕突破啦(第1页)

第43章 又双叒叕突破啦(第1页)

孟繁岐的这番话,听起来让人觉得不是那么舒服。

言下之意,给人一种华国aI技术就是不如国外的感觉。

这是李彦弘不大喜欢的,毕竟他这么早就关注aI技术,就是为了研最前沿最先进的技术。

孟繁岐大概猜到了他的想法,前世他也曾被早期华国大量表的aI论文所迷惑。

觉得在这个崛起的技术上,华国已经可以和美国分庭抗礼,不落下风。

虽然a1phago震惊了世人,但毕竟有些华而不实。

直到上千亿级别的语言大模型出现,这种纯硬核实力的比拼,让孟繁岐不得不甘拜下风。

实际上,并非是技术手段和算法层面上相差太远。

更多的还是因为优质数据的数量不足。

白度的文心一言,出图的时候甚至会将用户的中文输入翻译成英文,再去作图。

很多较真的网友故意测试了中英文差异很大的词汇,比如总线(Bus),鼠标(mouse)。

文心一言绘出的图像竟然是大巴车和老鼠,这从中文上是完全说不通的事情。

可见即便不是全部,文心一言这个所谓的专注中文的级大模型,也在相当程度上借助了英文基础的模型权重和技术。

究竟为何要这么做,说到底还是基础不够扎实牢靠。

整理数据,清洗数据,给数据打上高质量的标签。

这些都是脏活累活,见效慢的工作。

把别人公开的数据拿过来跑一跑训一训,多么方便快捷?

以国内996大厂的内卷风气,很难容下长回报周期的基础建设。

早些时候看看不出区别,只觉得国内大厂频繁在xx榜单上露面,刷榜,又是过这个,又是过那个。

直到语言大模型阶段,基础语料数量和质量上的劣势才暴露无遗。

“其实这也不能完全怪华国的大厂风气,美国的互联网起步要早,并且很多领域的文献材料归档做得特别好。”

孟繁岐也曾仔细思索过这方面的问题。

“像github,arxiv这样的大型公开社区,里面都是非常优质的外文代码或者论文。这些也不只是美国人自己的积累。而是通过免费公用的形式,收割了全世界的数据。”

“华国人在github上贡献的代码行数也不在少数,反过来看看华国的论文社区,就比如知网,纯纯就是毒瘤。里面屯点硕博生的论文,还要论页数收费。就连下载之后的阅读器,甚至都需要专门的。。。。”

此消彼长之下,差了多少珍贵的数据啊。。。

只是此时此刻,李彦弘应该还没有想到这么大规模的数据用于训练。因而孟繁岐也不急于一时和他讨论后面语言类的技术,以及生成式的大模型。

最近一两年内,孟繁岐的重心还是在视觉图像算法这边。

“李总,我个人相信aI技术的开源程度是相对的,不可以一直这样透明下去。只是最后成为壁垒的可能并不是模型本身这个纯技术范畴,更多的可能是计算能力,高质量的大规模数据,以及一些精髓的训练与反馈方式等等。”

已完结热门小说推荐

最新标签