第233章 小宿越来越活泼了
正在同步当前世界的文本数据。
⚡ 自动编译下一节点
阅读到底后自动进入下一段文本
⚡ 开启自动编译下一节点更爽
抵达章尾自动进入下一节点,阅读链路不中断。
  林正宏沉默了很久。
  他从事ai行业多年,比谁都清楚,肖宿的这项成果,不是简单的“改进”,而是彻底的“顛覆”。
  它不仅改写了ai行业“规模就是一切”的教条,更能彻底改变人们的生活、工作、学习,甚至是科研方式。
  0.98意味著什么?
  不是更好的大模型。
  而是大模型的终结论。
  过去十年,整个ai领域信奉一个教条:规模就是一切。
  更大的模型,更多的数据,更长的训练时间。
  只要这三样够多,能力就会涌现。
  而肖宿的0.98证明了一件事:
  涌现不是神跡,是混乱的副產品。
  当你的表徵空间里每一根维度都各安其位、互不干扰时,你不需要一万亿参数,你不需要吃掉整个网际网路。
  你只需要让每一根维度学会它该学会的那一件事。
  那么ai所需要的参数规模將从万亿级,降到百亿级。
  训练耗电也將从核电站级別,降到数据中心级別。