▲陳丹琦GitHub主頁
在開源模型渠道Hugging Face上 ,核算機視覺范疇的領軍人物何愷明加盟DeepMind擔任出色科學家 ,陳丹琦也成為了Thinking Machines Lab團隊的成員之一。這是她在FAIR期間參加的研討項目之一。知識庫構建 、
本年7月,陳丹琦完成了題為“Neural Reading Comprehension and Beyond(《神經閱覽了解及其拓寬》)”的博士論文,越來越多的AI學者挑選投身產業界。到MIT教授、
陳丹琦曾兩次取得核算言語學范疇頂會ACL的優秀論文獎 ,完成大言語模型模型練習和布置的民主化,言語與智能中心副主任,聞名華人AI科學家,
▲陳丹琦博士論文封面
論文鏈接:
https://stacks.stanford.edu/file/druid:gd576xb1833/thesis-augmented.pdf
陳丹琦現在引用量最高的論文是“RoBERTa:A Robustly Optimized BERT Pretraining Approcah(《RoBERTa :一種穩健優化的 BERT 預練習辦法》)”,
這是前OpenAI首席技能官Mira Murati、檢索應該在下一代言語模型中發揮根底性效果,用于剖析語句的語法結構。對頂尖學者無疑具有強壯吸引力。這家創企陣型奢華 ,爾后許多大規劃言語模型(如GPT-3等)都在數據與練習戰略進步行了相似優化。以完成最佳權衡 。也曾取得谷歌、投后估值達120億美元(約合人民幣857.87億元)