這種思路已在實際國際中取得了很好的效果。每個模型都通過專業練習,只需不到 5 分鐘即可完結 。
本周四,Hugging Face 團隊的成員運用 Gemma 3 270M 為一款運用 Transformers.js 的睡前故事生成器網頁運用供給支撐 。專為特定使命的微調而規劃,截止上星期,專業化的 Gemma 模型到達乃至逾越了更大型專有模型在其特定使命上的體現。從成果上看 ,人們應從緊湊而強壯的模型下手,Transformer 模塊則有 1 億個。構思寫作和合規性查看等功用。谷歌供給了快速入門的計劃和東西。
曩昔幾個月,不過在谷歌發布后,你能夠在 Gemma 文檔中找到運用 Gemma 3 270M 進行完好微調的攻略:https://ai.google.dev/gemma/docs/core/huggingface_text_full_finetune
谷歌一起發布了 Gemma 3 270M 的預練習模型和指令調優模型