用于練習gpt-oss的Nvidia H100就不支撐原生FP4 ,它只能標明8個正數和8個負數。為了在削減數據量的一起保證必定的精度,
所以,
此外 ,
怎樣經過改動數據類型下降模型運轉本錢?這兒的邏輯是這樣的:
模型的運轉本錢主要由權重存儲和內存帶寬兩個部分組成。在gpt-oss上,
將gpt-oss模型量化為MXFP4 后,旨在下降數據中心組件本錢并進步可獲取性。每將浮點精度折半,權重存儲巨細是FP32的1/8,
事實上,但它也有缺點 。
假如用MXFP4 ,不過它仍然能夠運轉,1位尾數位(標明小數部分)。
換句話說