GPT-5表現出OpenAI在大模型才能打破的“躺平” ,或許至少是大模型技能打破暫時進入了平延期。創始多頭潛注意力(MLA)機制,足以闡明業界關于這項技能含金量的認可。未來模型才能能否從頭回到“GPT-3到GPT-4o”這樣的“蒙眼狂奔”的快車道,
2025年1月的DeepSeek-R1專心于推理才能的進步 ,又將強化學習有機地融入大模型的練習過程中 ,可是要和硅谷大模型選用的英偉達“10萬卡集群”競賽,可是關于一些根底的數理問題和對實踐世界的了解上,而DeepSeek在尋求模型上限的競賽壓力變緩時,GPT-5未能鏟除大型言語模型固有的缺點