Tag: bert

29 dicembre 2020 Greggory Elias Non esistono commenti

Tutorial: Come pre-addestrare ELECTRA per lo spagnolo partendo da zero Pubblicato originariamente dal ricercatore di apprendimento automatico di Skim AI, Chris Tran. Introduzione Questo articolo spiega come pre-addestrare ELECTRA, un altro membro della famiglia di metodi di pre-addestramento Transformer, per lo spagnolo, per ottenere risultati all'avanguardia nei benchmark di elaborazione del linguaggio naturale. È la terza parte di una serie sull'addestramento...

28 dicembre 2020 Greggory Elias Non esistono commenti

Tutorial: Come mettere a punto BERT per NER Pubblicato originariamente dal ricercatore di apprendimento automatico di Skim AI, Chris Tran. Introduzione Questo articolo spiega come mettere a punto BERT per il riconoscimento di entità denominate (NER). In particolare, come addestrare una variante di BERT, SpanBERTa, per la NER. È la parte II di III di una serie sull'addestramento del linguaggio BERT...

28 dicembre 2020 Greggory Elias

Tutorial: Come mettere a punto BERT per la sintesi estrattiva Originariamente pubblicato dal ricercatore di apprendimento automatico di Skim AI, Chris Tran 1. Introduzione La sintesi è da tempo una sfida nell'elaborazione del linguaggio naturale. Per generare una versione breve di un documento conservando le informazioni più importanti, abbiamo bisogno di un modello in grado di estrarre con precisione i punti chiave...

27 luglio 2020 Greggory Elias Non esistono commenti

Generazione del linguaggio naturale e sue applicazioni aziendali Generazione del linguaggio naturale (NLG) Per continuare a esplorare gli autori di IA e le notizie generate dai robot, vale la pena di esplorare alcune delle tecnologie che guidano questi algoritmi. Le IA progettate per generare documenti che si leggono come se li avesse scritti un essere umano si basano su algoritmi di generazione del linguaggio naturale (NLG). Gli algoritmi NLG sono...

29 aprile 2020 Greggory Elias

SpanBERTa: How We Trained RoBERTa Language Model for Spanish from Scratch Originariamente pubblicato da Chris Tran, tirocinante di Skim AI nel campo dell'apprendimento automatico. spanberta_pretraining_bert_from_scratch Introduzione¶ I metodi di autoformazione con modelli trasformatori hanno raggiunto prestazioni all'avanguardia nella maggior parte dei compiti di NLP. Tuttavia, poiché il loro addestramento è costoso dal punto di vista computazionale, la maggior parte dei modelli trasformatori preaddestrati attualmente disponibili riguarda solo l'inglese. Pertanto,...

15 aprile 2020 Greggory Elias Non esistono commenti

Tutorial: Messa a punto di BERT per l'analisi dei sentimenti Pubblicato originariamente dal ricercatore di apprendimento automatico di Skim AI, Chris Tran. BERT_for_Sentiment_Analysis A - Introduzione¶ Negli ultimi anni la comunità NLP ha visto molti progressi nell'elaborazione del linguaggio naturale, in particolare il passaggio all'apprendimento per trasferimento. Modelli come ELMo, ULMFiT di fast.ai, Transformer e GPT di OpenAI hanno permesso ai ricercatori di raggiungere...