タグ: チュートリアル

12月 28, 2020 グレゴリー・エリアス コメントはありません

チュートリアルNERのためにBERTを微調整する方法 原文:Skim AIの機械学習研究者、Chris Tran.はじめに この記事では、名前付き固有表現認識(NER)のためにBERTを微調整する方法について説明します。具体的には、BERT のバリエーションである SpanBERTa を NER 用に訓練する方法です。これは、さまざまなユースケースのためのスペイン語用カスタム BERT 言語モデルの訓練に関するシリーズの第Ⅲ部の第Ⅱ部である:パートI:ゼロからスペイン語用RoBERTa言語モデルを訓練する方法 パートIII:ゼロからスペイン語用ELECTRA言語モデルを訓練する方法 前回のブログポストでは、私のチームがスペイン語用変換言語モデルであるSpanBERTaをどのように事前訓練したかを説明した。