項(xiàng)目地址:https://github.com/Dao-AILab/flash-attention
現(xiàn)在,
在右圖中,可用的 Blackwell 加快首要是憑借英偉達(dá) Triton/cuDNN 的直接支撐。
在正在舉行的半導(dǎo)體職業(yè)會(huì)議 Hot Chips 2025 上
項(xiàng)目地址:https://github.com/Dao-AILab/flash-attention
現(xiàn)在,
在右圖中,可用的 Blackwell 加快首要是憑借英偉達(dá) Triton/cuDNN 的直接支撐。
在正在舉行的半導(dǎo)體職業(yè)會(huì)議 Hot Chips 2025 上