今週のヘッドライン
OpenAIは今週、ChatGPTにいくつかの大きなアップデートをリリースしました。これらのアップデートには、「目、耳、そして声」(つまり、チャットボットは画像認識、音声テキスト化およびテキスト音声合成機能、そしてSiriのような音声機能を搭載し、いわばHAL 9000と会話しているようなもの)に加え、ユーザーがオープンインターネットを閲覧できる新しい統合機能が含まれています。
今週開催された年次イベント「Connect」で、MetaはAI関連の新機能を多数発表しました。AIが生成するステッカーが登場します。やったー!
ChatGPTをセラピストとして利用すべきでしょうか?おそらく無理でしょう。詳しくは今週のインタビューをご覧ください。
トップストーリー:善良な人たちに勝利を

ハリウッドの脚本家ストライキを悩ませてきた疑問の一つは、AIの脅威から脚本家を守るためにどのような保護策が実現されるのか(あるいは実現されないのか)という点だった。映画スタジオやストリーミングスタジオは当初、アルゴリズムが脚本を「書く」ことができるというアイデアに興奮していることを明らかにしていた。なぜ興奮しないのか?ソフトウェアプログラムにお金を払う必要がないからだ。そのため、幹部たちは当初、脚本家が人間の役割であることを明確に定義するような譲歩を拒否した。
さて、ストライキは終結しました。ありがたいことに、作家たちは、彼らが恐れていたような自動化による置き換えから、何らかの形で大きな保護を勝ち取ることができました。しかし、これが勝利の瞬間のように感じられるとしても、これはエンターテインメント業界の経営幹部と人間の労働者との間の、これから続く戦いの始まりに過ぎないのかもしれません。
脚本家ストライキから生まれたWGA(ワールド・エンターテイメント・アソシエーション)の新たな契約には、エンターテインメント業界の編集スタッフに対する広範な保護が含まれています。残余報酬やその他の経済的懸念に関する前向きな譲歩に加え、AIによる人材流出に対する保護についても明確に規定されています。
契約によると、スタジオはAIを用いて文学作品の執筆やリライトを行うことは許可されず、AIが生成した作品はストーリーや脚本の原作とはみなされないため、創作活動の功績は人間のみが有することになります。同時に、作家は執筆中にAIを利用することを選択できますが、企業はそれを強制することはできません。さらに、企業は作家に提供した作品がAIによって生成されたものである場合、その旨を開示する必要があります。
要するに、ハリウッドの脚本家たちが、スタジオの経営陣がわずかな費用を節約するためだけに、すぐにソフトウェアに置き換えられることはないという明確な保護を勝ち取ったことは、非常に朗報です。一部のコメンテーターは、この脚本家ストライキが、自動化の脅威からすべての人の雇用を守るための青写真を示したとさえ述べています。同時に、エンターテインメント業界、そして他の多くの業界が依然としてAIの概念に多額の投資を行っており、今後もこの傾向が続くことは明らかです。企業がますます無給で自動化された近道を求める中、労働者は経済における自らの役割を守るために戦い続けなければならないでしょう。
インタビュー:カリ・シュローダー氏による、セラピストにチャットボットを使うべきではない理由

今週は、電子プライバシー情報センター(EPIC)のグローバルプライバシーカウンセル、Calli Schroeder氏にお話を伺いました。Calli氏には、今週OpenAIが巻き込まれたある出来事についてお話を伺いたいと考えていました。OpenAIの安全システム責任者であるLilian Weng氏は、ChatGPTと話しているときに「話を聞いてもらえて温かい気持ちになった」とツイートし、多くの人の注目を集めました。そして、「今までセラピーを試したことはないけれど、これがそれかも?普段は生産性ツールとしてしか使っていないなら、ぜひ試してみてください」とツイートしました。このツイートには疑問を抱く人もおり、Calli氏もその後、チャットボットが最適なセラピーパートナーではない理由を説明するスレッドをTwitterに投稿しました。「くそっ、ChatGPTをセラピーとして使うのはやめなさい」とCalli氏はツイートしました。私たちはどうしてももっと知りたかったのです。このインタビューは、簡潔さと明瞭さを考慮して編集されています。
あなたのツイートでは、チャットボットとの会話はセラピーとして認められるべきではないと言っているように聞こえました。私もその意見には同意しますが、なぜそうお考えになるのか、もう少し詳しく説明していただけますか。精神的な助けを求める人にとって、AIチャットボットはおそらく最善の選択肢ではないのでしょうか?
これはいくつかの理由から、現実的なリスクだと私は考えています。例えば、セラピストとして生成AIシステムを利用し、チャットボットに非常に個人的で辛い情報をすべて共有する場合、その情報はすべてシステムに入力され、最終的には学習データとして使用されます。つまり、あなたの最も個人的でプライベートな思考が、この会社のデータセットの学習に利用されるのです。そして、その思考はデータセットに永久に残る可能性があります。削除を依頼する方法がないかもしれません。あるいは、削除してもらえないかもしれません。それがあなたにつながるかどうかもわからないかもしれません。こうした状況全体が大きなリスクとなる理由は数多くあります。
それに加えて、これらのプラットフォームは実際にはセラピストではなく、人間ですらないという事実もあります。つまり、彼らはあなたに対して注意義務を負っていないだけでなく、文字通り気にかけていないのです。彼らには気遣う能力がないのです。また、あなたの精神状態を悪化させるような誤ったアドバイスをしたとしても、責任を負わないのです。
個人的なレベルでは、精神的な危機に陥った人々が、誰か、あるいは何かが自分の話に耳を傾け、共感を示してくれることを期待して、機械に頼っているのを見ると、心配でもあり、悲しくもあります。これは、私たちの社会のもっと根深い問題を物語っているのではないでしょうか。
そうですね、それは間違いなく私たちの医療制度に何らかの欠陥があることを示しています。
100%です。誰もが質の高い、手頃な価格のセラピーを受けられるようになればいいと思っています。医療制度が人々を失望させ、質の高いメンタルヘルスサービスが不足しているため、チャットボットが不足を補っていることは重々承知しています。しかし問題は、こうしたいわゆる解決策が、実際には人々の状況を悪化させてしまう可能性があることです。例えば、誰かが自分の気持ちを日記に書くだけなら話は別ですが、チャットボットは中立的な場ではなく、あなたに返信するのです。もし人々が助けを求めているのに、その返信が役に立たないのであれば、それは問題です。もしチャットボットが人々の苦痛や、彼らが訴えていることを悪用しているのであれば、それは全く別の問題です。
AI療法に関して他に懸念はありますか?
この件についてツイートした後、「もし人々がそうすることを選んでいるのなら、それをするなと誰が言う権利があるんだ?」という意見もありました。確かにその通りです。しかし、私が懸念しているのは、新しいテクノロジーが関わる多くのケースにおいて、その技術の仕組みが明確に理解されていないため、人々が十分な情報に基づいた選択をすることが許されていないということです。もし人々がこれらのシステムがどのように構築されているか、ChatGPTがどのようにコンテンツを生成するか、入力した情報がどこに送られ、どれくらいの期間保存されるかを知っていて、それらすべてを明確に理解していて、それでもなお興味を持っているのであれば…もちろん、それはそれで構いません。しかし、セラピーという文脈においては、依然として問題があります。なぜなら、このような形でアプローチするということは、定義上、思考が明晰ではない、苦悩した精神状態にある可能性が十分に考えられるからです。ですから、この文脈においてインフォームド・コンセントが本当に有効なのか、という非常に複雑な問題が生じます。
GizmodoのAI関連ニュースはこちら、または最新ニュースはこちらでご覧いただけます。毎日の最新情報をご希望の方は、無料のGizmodoニュースレターにご登録ください。