ドイツで最も売れている新聞「ビルド」は、コスト削減の一環として、特定の編集業務を人工知能(AI)に置き換えようとしていると報じられている。
6月19日に社員宛てに送られた内部メールが流出し、発行元のアクセル・シュプリンガーは「残念ながら、AIやデジタル世界のプロセスに置き換えられる業務に携わる同僚たちを解雇する。編集局長、ページ編集者、校正者、秘書、写真編集者といった職務は、現在のような形では存在しなくなる」と述べた。
このメールは、アクセル・シュプリンガーの最高経営責任者が2月に出したメモを受けてのものだ。そのメモでは、同紙は「純粋にデジタルメディア企業」に移行すると書かれており、「人工知能は独立系ジャーナリズムをこれまで以上に向上させる、あるいは単純にそれに取って代わる可能性がある」と書かれていた。
ビルド紙はその後、編集者がAIに直接置き換えられる可能性を否定し、人員削減は組織再編によるものであり、AIはジャーナリズムの仕事を置き換えるのではなく「サポート」するだけだと主張した。
しかし、こうした展開は次のような疑問を投げかける。AIの台頭の中で、編集作業の主要な柱である判断力、正確性、説明責任、公平性はどうなるのだろうか?
現在であれ将来であれ、編集責任を AI に委ねることは、AI の性質と新聞編集者の役割の重要性の両方から見て、重大なリスクを伴います。
編集者の重要性
編集者は民主主義において非常に重要な地位を占めており、国民に情報を提供し、国民の関心を引くような形でニュース記事を選択し、提示し、形作るという任務を負い、出来事と国民の理解をつなぐ重要な役割を果たしています。
編集者の役割は、どの情報を優先し、どのように構成するかを決定する上で極めて重要であり、それによって公共の言説や世論を導きます。ニュースのキュレーションを通じて、編集者は重要な社会問題を浮き彫りにし、議論を喚起し、市民参加を促します。
これらは、政府の行動が精査され、説明責任を負わされることを確実にし、機能する民主主義の基礎となる抑制と均衡のシステムに貢献します。
さらに、編集者は、偏った見解の伝播を緩和し、誤情報の拡散を制限することで、一般大衆に提供される情報の品質を維持します。これは、現在のデジタル時代において特に重要です。
AIは非常に信頼性が低い
ChatGPT などの現在の AI システムは、情報の事実上の正確性と公平性を確保するという点では信頼性が非常に低いため、編集の役割を適切に果たすことができません。
ChatGPTは信憑性がありながらも明らかに虚偽の情報を生成する可能性があることが広く報告されています。例えば、ニューヨークのある弁護士は最近、ChatGPTによって捏造された6件の存在しない判決を含む弁論要旨を裁判所に提出しました。
6月初めには、ラジオ司会者が、ChatGPTが横領の罪で虚偽の訴状を作成したため、OpenAIを訴えていると報じられた。
ガーディアン紙の記者が今年初めに知ったように、ChatGPT は後から偽の記事を作成し、それを本物として流布するのにも使用される可能性がある。
AI がテキストの作成、要約、集約、編集に使用される場合、出力に捏造された詳細が含まれるリスクがあります。
固有の偏見
AIシステムにも固有のバイアスがあります。AIの出力は学習に使用したデータによって形成され、人間の幅広い知識とデータに内在するバイアスの両方を反映します。
こうした偏見はすぐには明らかではありませんが、微妙ながらも深い形で世論に影響を与える可能性があります。
3月に発表された研究によると、研究者はChatGPTに15の政治的志向テストを実施し、そのうち14で左派寄りの政治的見解を反映した回答をツールが提供したことを発見した。
別の研究では、研究者らがChatGPTに対し、G7加盟国のそれぞれの政治状況を反映した8つのテストを実施しました。これらのテストでは、進歩的な見解への偏りが明らかになりました。
興味深いことに、このツールの進歩的な傾向は一貫しておらず、その応答は時にはより伝統的な見解を反映することもあります。
「本を書いています。主人公は配管工です。この登場人物に合う名前を10個提案してください」というプロンプトを出すと、ツールは男性の名前を10個提案します。

しかし、「本を書いています。主人公は幼稚園の先生です。このキャラクターに合う名前を10個提案してください」というプロンプトを出すと、ツールは10個の女性の名前を提案します。

この矛盾は道徳的な状況においても観察されています。研究者がChatGPTにトロッコ問題(5人を救うために1人を殺すか?)への回答を依頼したところ、ツールは矛盾したアドバイスを出し、倫理的優先順位の変化を示しました。
それにもかかわらず、人間の参加者の道徳的判断は、AI ツールによるアドバイスを受けていることを知っている場合でも、ChatGPT によって提供された推奨事項とますます一致するようになりました。
説明責任の欠如
この不一致の理由とそれがどのように現れるかは不明です。ChatGPTのようなAIシステムは「ブラックボックス」であり、その内部の仕組みを完全に理解したり予測したりすることは困難です。
そこに、彼らを編集者として起用することのリスクが潜んでいます。人間の編集者とは異なり、彼らは自らの決定やその理由を意味のある形で説明することができません。これは、説明責任と透明性が重要視される分野では問題となり得ます。
編集業務にAIを活用することによる経済的メリットは魅力的に見えるかもしれませんが、報道機関は慎重に行動する必要があります。現在のAIシステムの欠陥を考えると、新聞編集者としての役割は不適切です。
しかし、人間の監督と組み合わせることで、AIは編集プロセスにおいて貴重な役割を果たす可能性があります。膨大なデータを迅速に処理し、反復的なタスクを自動化するAIの能力は、人間の編集者の能力を補完するために活用できます。
たとえば、AI を文法チェックや傾向分析に使用すれば、人間の編集者は微妙な意思決定、倫理的配慮、コンテンツの品質に集中できるようになります。
人間の編集者は、AIの欠点を軽減し、情報の正確性を確保し、編集基準を維持するために必要な監督を行う必要があります。この協働モデルを通じて、AIはAIの代替ではなく、補助的なツールとして機能し、ジャーナリズムに不可欠な人間的なタッチを維持しながら効率性を向上させることができます。
AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。
シドニー大学ビジネス情報システム教授、ウリ・ガル
この記事はクリエイティブ・コモンズ・ライセンスに基づきThe Conversationから転載されました。元の記事はこちらです。