在本年2月,還積極參與其間。
Mistral的「秘方」竟是DeepSeek ,當(dāng)OpenAI斥資超1億美金練習(xí)GPT-4時(shí),Mistral就在兩個(gè)首要「權(quán)重等級(jí)」上發(fā)布了SOTA開源大言語模型(mistral-7b 和 mixtral)。
在工作出路未卜
在本年2月,還積極參與其間。
Mistral的「秘方」竟是DeepSeek ,當(dāng)OpenAI斥資超1億美金練習(xí)GPT-4時(shí),Mistral就在兩個(gè)首要「權(quán)重等級(jí)」上發(fā)布了SOTA開源大言語模型(mistral-7b 和 mixtral)。
在工作出路未卜