檢索結果:共1筆資料 檢索策略: ckeyword.raw="BERT" and ckeyword.raw="非監督式學習" and ckeyword.raw="非監督式學習"
個人化服務 :
排序:
每頁筆數:
已勾選0筆資料
1
隨著Transformer架構的提出,如BERT、GPT-2…等等,這些預訓練於大量文本上的模型透過微調下游任務的方式在自然語言處理領域中蓬勃發展。在中文斷詞領域中,也將資料集的評估分數推升至F1分…