[태그:] fine tune

12월 28, 2020 그레고리 엘리아스

튜토리얼: 요약 추출을 위해 BERT를 미세 조정하는 방법 작성자: Skim AI의 머신러닝 연구원 Chris Tran 1. 서론 요약은 자연어 처리 분야에서 오랫동안 어려운 과제였습니다. 문서의 가장 중요한 정보를 유지하면서 짧은 버전의 문서를 생성하려면 핵심 사항을 정확하게 추출할 수 있는 모델이 필요합니다.

4월 29, 2020 그레고리 엘리아스

SpanBERTa: 스페인어에 대한 RoBERTa 언어 모델을 처음부터 훈련한 방법 Skim AI의 머신러닝 연구 인턴인 Chris Tran이 처음 게시했습니다. spanberta_pretraining_bert_from_scratch 소개¶ 트랜스포머 모델을 사용한 자가 훈련 방법은 대부분의 NLP 작업에서 최첨단 성능을 달성했습니다. 하지만 트레이닝에는 계산 비용이 많이 들기 때문에 현재 사용 가능한 대부분의 사전 트레이닝된 트랜스포머 모델은 영어 전용입니다. 따라서...

4월 15, 2020 그레고리 엘리아스 댓글이 없습니다

튜토리얼: 감정 분석을 위한 BERT 미세 조정하기 Skim AI의 머신러닝 연구원 Chris Tran이 처음 게시했습니다. BERT_for_Sentiment_Analysis A - 소개¶ 최근 몇 년 동안 NLP 커뮤니티에서는 자연어 처리, 특히 전이 학습으로의 전환을 중심으로 많은 혁신이 있었습니다. ELMo, fast.ai의 ULMFiT, Transformer, OpenAI의 GPT와 같은 모델을 통해 연구자들은 다음과 같은 성과를 달성할 수 있었습니다....