タグ: ハウツー

5月 4, 2023 グレゴリー・エリアス コメントはありません

ChatGPTを使った職務記述書と面接の質問の書き方 競争の激しいHR業界において、適切な人材を見つけることは困難なタスクです。先進的なAI言語モデルであるChatGPTは、採用プロセスを合理化し、候補者のスクリーニングを改善するのに役立ちます。このステップ・バイ・ステップのガイドでは、ChatGPTを使用して、職務経歴書の作成、面接質問の生成、面接プロセスの準備を行う方法を探ります。(注:このハウツーガイドで使用されている会社、人、製品はすべて仮定のものです。これらの仮定は、あなたの会社、従業員、製品に置き換えてください。"ChatGPTのセットアップ ChatGPTを使って文章を書き始める前に...

5月 2, 2023 グレゴリー・エリアス コメントはありません

ChatGPTを使ったカバーレターの書き方 このガイドでは、ChatGPTを使ったカバーレターの作成方法をご紹介します。ChatGPTは、応募する企業や職務に関する具体的な情報を入力することで、採用担当者の目に留まるような、あなただけのカバーレターを作成することができます。(注:このハウツーガイドで使用されている企業、人、製品はすべて仮定のものです。これらの仮定はあなた自身の情報に置き換えてください)。仕事と会社についての情報を集める カバーレターを作成する前に、応募する会社と役割について調べましょう。会社の使命、価値観、最近の業績について情報を集めましょう。また、重要なスキルをリストアップしましょう。

12月 29, 2020 グレゴリー・エリアス コメントはありません

チュートリアルELECTRAをゼロからスペイン語用に事前学習する方法 原文:Skim AIの機械学習研究者、Chris Tran.はじめに この記事では、自然言語処理ベンチマークで最先端の結果を達成するために、Transformer事前学習メソッドファミリーのもう一つのメンバーであるELECTRAをスペイン語用に事前学習する方法について説明します。これは、さまざまなユースケースのためのスペイン語のカスタム BERT 言語モデルのトレーニングに関するシリーズのパート III です:Part I: How to Train a RoBERTa Language Model for Spanish from Scratch Part II: How to Train a SpanBERTa Spanish Language Model for Named Entity Recognition (NER) 1.はじめに ICLR 2020では、ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators, a...

12月 28, 2020 グレゴリー・エリアス コメントはありません

チュートリアルNERのためにBERTを微調整する方法 原文:Skim AIの機械学習研究者、Chris Tran.はじめに この記事では、名前付き固有表現認識(NER)のためにBERTを微調整する方法について説明します。具体的には、BERT のバリエーションである SpanBERTa を NER 用に訓練する方法です。これは、さまざまなユースケースのためのスペイン語用カスタム BERT 言語モデルの訓練に関するシリーズの第Ⅲ部の第Ⅱ部である:パートI:ゼロからスペイン語用RoBERTa言語モデルを訓練する方法 パートIII:ゼロからスペイン語用ELECTRA言語モデルを訓練する方法 前回のブログポストでは、私のチームがスペイン語用変換言語モデルであるSpanBERTaをどのように事前訓練したかを説明した。

12月 28, 2020 グレゴリー・エリアス

チュートリアルはじめに 要約化は、自然言語処理における長年の課題である。文書の最も重要な情報を保持しながら短いバージョンを生成するには、重複する情報を避けながら重要なポイントを正確に抽出できるモデルが必要である。幸いなことに、Transformerモデルや言語モデルのプリトレーニングなど、最近の自然言語処理における研究が要約の最先端を進んでいる。本稿では、Text Summarization with Pretrained Encoders (Liu et al., 2019)から、抽出的要約のためのBERTの単純な変形であるBERTSUMを探求する。そして、抽出的要約のための...

7月 27, 2020 グレゴリー・エリアス コメントはありません

自然言語生成とそのビジネス応用 自然言語生成(NLG) AI著者とロボットが生成したニュースの継続的な探求として、これらのアルゴリズムを駆動する技術のいくつかを探求することは価値がある。人間が書いたように読める文書を生成するように設計されたAIは、自然言語生成(NLG)アルゴリズムに依存している。NLGアルゴリズムは、構造化データから、あたかも人間が書いたかのように読めるテキストを自動生成することを意図している。構造化データとは、次のような文書である:新製品の特徴を説明する製品レポート、オンライン顧客満足度調査の調査結果、財務レポート(ロボット作成者が使用するようなもの)、パーソナライズされた電子メール。

4月 29, 2020 グレゴリー・エリアス

SpanBERTa:Spanberta_pretraining_bert_from_scratchはじめに¶変換モデルを使った自己学習法は、ほとんどの自然言語処理タスクで最先端の性能を達成している。しかし、変換モデルの学習には計算コストがかかるため、現在利用可能な事前学習済み変換モデルのほとんどは英語のみを対象としている。そこで、私たちのプロジェクトでスペイン語のNLPタスクのパフォーマンスを向上させるために、Skim AIの私のチームは、スペイン語用のRoBERTa言語モデルをゼロから訓練し、SpanBERTaと呼ぶことにしました。SpanBERTaはRoBERTa-baseと同じサイズである。我々はRoBERTaの学習スキーマに従い、18GBのOSCARのスペイン語コーパスでモデルを学習した。

4月 15, 2020 グレゴリー・エリアス コメントはありません

チュートリアルセンチメント分析のためのBERTの微調整 元々はSkim AIの機械学習研究者、クリス・トランによって発表されました。BERT_for_Sentiment_Analysis A - はじめに¶ 近年、NLPコミュニティは自然言語処理、特に転移学習への移行において多くのブレークスルーを見てきました。ELMo、fast.aiのULMFiT、Transformer、OpenAIのGPTのようなモデルは、研究者が複数のベンチマークで最先端の結果を達成することを可能にし、高性能で大規模な事前学習済みモデルをコミュニティに提供しました。NLPにおけるこのシフトは、数年前のコンピューター・ビジョンにおけるNLPのImageNetの瞬間のようなもので、特定のタスクで訓練された百万単位のパラメーターを持つディープ・ラーニング・ネットワークの低レイヤーが再利用され...

3月 20, 2020 グレゴリー・エリアス

機械学習プロジェクトを始める前にすべき10の質問 データサイエンス・プロジェクトの80%以上が、テストから本番への移行に失敗している。誰もが機械学習プロジェクトを始めているとしたら、どこで間違っているのだろうか?間違いなく、MLソリューションは、大量のデータを収集したり分析したりする業務に携わる人々の効率を向上させる。しかし、そのようなプロジェクトをどのように実施するかという脅威的な考えが、しばしば私たちを遠ざけてしまう。 では、そのような作業にどのように取り掛かればいいのだろうか?象を食べるのと同じ方法だ。チームを率いて標準的なAIプラットフォーム(Skim...

12月 5, 2019 グレゴリー・エリアス

プロダクト・マネージャーのためのトピック・モデリング トピック・モデリングとは?トピック・モデリングとは、自然言語処理(NLP)の一種で、一連の文書内で「トピック」、つまりよく出現する単語や単語のグループを見つけるために使用されます。トピック・モデルは、プロダクト・マネージャが扱う膨大な量のテキスト・データを分類・分析するために不可欠です。例えば、大規模なレビューのセットを分析して、顧客が自社製品について何を言っているのかを知る。

11月 11, 2019 グレゴリー・エリアス コメントはありません

ラベル付けされたデータを保存するための10のベストプラクティス あなたは大きなアイデアを思いついた。あなたはよく本を読み、話し手の口調をラベル付けし、その政治的所属を決定する分類器があれば面白いと考えた。機械学習を使ってこの予測を行うために、あなたはどのように問題を分解し始めるでしょうか?私たちは、民主・共和両党の有権者が信頼する新聞への回答を用いたピュー調査を利用しました。本番用の機械学習モデルの構築を考える前に、データ・パイプラインについて考える必要があります。これは、MLモデルが動作するための基盤であり、強固な基盤がなければ、...