ジャーナリズムの新潮流 - ロボットライター?
ジャーナリズムの新潮流 - ロボットライター?
では、ロボットリポーターはどの程度普及しているのだろうか?ロボット記者にはどんな危険があるのか?あなたが読んでいる記事が人間によって書かれたものでない可能性は?2015年の報告書によれば、APは四半期に約3,000本の記事を作成しており、そのすべてが財務報告やビジネス報告に関するものだった。コミュニティでは、AIが1秒間に2,000もの記事を生成する可能性があると見積もっている者もいる。伝統的で質的なニュースでは、ワシントン・ポストの人工知能技術であるヘリオグラフが、初年度(2016年)に850本のニュース記事を書いた。この傾向は、金融分野以外でもロボットによって書かれるニュース記事が増えることを示している。しかし、これは良いことなのだろうか?
ロボット記者の危険性
ロボット記者は、財務報告書やその他の数値データに関する記事(不動産、スポーツのスコアなど)をまとめるのは得意だ。しかし、異なる意見、トーン、目標を持つ複数の情報源からの情報をまとめるのには有効ではない。実際、ロボット記者は情報過多を引き起こし、意思決定者に大量の、しばしば役に立たない、あるいは間違った情報を提供している。AIが書いたニュースに基づいて意思決定することの潜在的な弊害はいくつかある:
情報過多:自動化によって多くの記事が書かれるようになったが、その記事は適切なのか、それとも情報が多すぎて無意味になっているのか。
有用性:ロボットは統計情報を言葉に変換するのは得意だが、情報を合成して新しいものを生み出すのは得意ではないことを考えると、ロボット記者が作成した情報の重要性はどの程度なのだろうか?
執筆者の特定:記事のクレジットはプログラマーか、報道機関か、それとも人間か?
信頼性:ソフトウエアは本当に偏りのない正確な記事を提供できるのか、それともニュースソースのバイアスを過度に受けやすいのか。
入手可能な情報は膨大であり、その情報源は不確実であるため、マネジャーが情報源のリストを注意深く精査することは、これまで以上に重要である。ロボット・レポートを鵜呑みにすることは危険であり、管理職が誤った情報に基づいて意思決定を下す可能性があるため、コストがかかる可能性がある。意思決定者が膨大な情報から関連データを素早く特定できるツールを使うことは、マネジャーに競争力をもたらす。この種のツールは、現在のニュース環境と将来におけるナレッジワーカーの成功に不可欠である。
インテリジェントな自動化がもたらす豊富な利点を考えれば、報道機関が自社の製品を強化するためにAIを採用するのは当然のことだ。機械学習は、複数のデータソースを検索し、これらのソースの重要な要約データをコンパイルするための強力なツールである。特に、自然言語処理(NLP)は、最も重要な情報を強調する、複数のテキストソースの意味のある要約を生成するための強力なツールを提供する。情報合成のためのいくつかのNLPアプリケーションは、このサイトの他のブログ記事でご覧いただけます。AIがニュース報道のために実行できる主なタスクには、以下のようなものがある:
- 作成される記事の数やテーマを増やすことで、オーディエンスの拡大に貢献する。
- 基本的な事実のコンパイルと合成を自動化することで、人間の記者をサポートする。
- 金融データやソーシャルメディアなどの大規模なデータセットを監視し、トレンド速報を記者に警告する。
- 記者の時間を節約するために、記事のテンプレートやアウトラインを提供する。
- データ分析のエラーを減らす。
こうした利点から、多くのニュースソースがロボット記者を導入している。これは、多数のデータソースを入力し、簡潔かつ詳細なニュース記事を出力するNLPアルゴリズムである。ニュースにおけるAIのオーサーシップの台頭は、多くのジャーナリストの間に懸念を引き起こしているが、これらのボットはジャーナリストに取って代わるのではなく、ジャーナリストを助けるために設計されている。これらのツールの目的は、記者がトレンドトピックの検索やデータの編集・分析に費やす時間を短縮することだ。AP通信は、ロボット記者によって人間の記者の時間が20%解放され、量より質に集中できるようになると予測している。