檢索結果:共2筆資料 檢索策略: "Department of Computer Science and Information Engineering".edept (精準) and ekeyword.raw="Chinese Word Segmentation"
個人化服務 :
排序:
每頁筆數:
已勾選0筆資料
1
隨著自注意力機制的熱門,讓Transformer架構的模型成為現在的主流。而基於Transformer架構的模型,像是BERT、Roberta等等,藉由大量的資料和訓練任務做預訓練之後,就可以得到強…
2
隨著Transformer架構的提出,如BERT、GPT-2…等等,這些預訓練於大量文本上的模型透過微調下游任務的方式在自然語言處理領域中蓬勃發展。在中文斷詞領域中,也將資料集的評估分數推升至F1分…