PR

【ゴーストボット】亡くなった愛する人の生成AIがメンタルヘルスの深刻な脅威に!

メンタルヘルス

人は誰でも喪失や悲しみを経験します。しかし、愛する人に別れを告げる必要がないことを想像してみてください。バーチャルで彼らを再現し、会話をしたり、彼らの気持ちを知ることができるとしたら。

キム・カーダシアンの40歳の誕生日に、当時の夫であったカニエ・ウェストは彼女に、亡くなった父親ロバート・カーダシアンのホログラムをプレゼントしました。

伝えられるところによると、キム・カーダシアンは誕生日パーティーで父親のバーチャルな姿に不信と喜びの反応を示したといいます。亡くなった愛する人が、再び動き、話す姿を見ることができるということは、残された人々に安らぎを与えるかもしれません。

結局のところ、亡くなった愛する人を復活させることは奇跡的に見えるかもしれないし、おそらく少しばかり不気味に感じるかもしれません。

ゴーストボットはグリーフ・ケアの助けになるのでしょうか、それとも妨げになるのでしょうか?

ゴーストボット:ソーシャルメディアなど既存のデータを用いて死者の声や顔、性格までを再現。リアルタイムの会話も可能。

AI技術を治療介入の強化に活用する方法を研究している心理療法家として、私はゴーストボットの出現に興味をそそられています。しかし、このテクノロジーが、それを使う人たち、特に悲嘆に暮れている人たちのメンタルヘルスに及ぼす潜在的な影響についても、少なからず懸念しています。

死者をアバターとして復活させることは、混乱、ストレス、うつ病、パラノイア、場合によっては精神病をさらに永続させ、善よりも害をもたらす可能性があります。

最近の人工知能(AI)の発展により、ChatGPTや他のチャットボットが誕生し、ユーザーは洗練された人間のような会話をすることができるようになりました。

ディープフェイク技術を使用することで、AIソフトウェアは、写真、電子メール、ビデオなどのデジタルコンテンツを使用して、故人のインタラクティブなバーチャル表現を作成することができます。

ディープフェイク技術:人工知能を利用して、架空の画像や音声、動画を生み出す技術のこと。2022年3月にはこの技術を使用し、ウクライナのゼレンスキー大統領になりすました人物がロシア軍への抵抗をやめるよう演説する動画が拡散され問題となったほか、トランプ前大統領が警官に取り囲まれ必死に抵抗しようとする画像までもがSNSで広まった。

このような作品のいくつかは、ほんの数年前まではSFファンタジーのテーマに過ぎませんでしたが、今では科学的な現実となっています。

それは癒しか、害悪か?

デジタル・ゴーストは、失われた愛する人との再会を助けることで、遺族を慰めることができるかもしれません。また、亡くなった人が生きていたときには言えなかったことを話したり、質問したりする機会を与えてくれるかもしれないのです。

しかし、ゴーストボットが失われた愛する人に酷似していることは、それほどポジティブなことではないかもしれません研究によれば、ゴーストボットは、テクノロジーへの有害な感情的依存を避けるために、喪に服すための一時的な補助としてのみ使用されるべきであるといいます。

ゴーストボットは、悲嘆のプロセスを邪魔することで、人々のメンタルヘルスに害を及ぼす可能性があります。

悲しみには多くの時間が割かれ、何年にもわたって様々な段階があります。新しく死別した場合、悲しみを経験している人は、亡くなった愛する人のことを頻繁に思い出すでしょう。昔の記憶がよみがえるかもしれないし、悲嘆に暮れている人が、失った愛する人の夢を数多く見ることはよくあることです。

精神分析学者のジークムント・フロイトは、人間が喪失体験にどのように反応するかに関心を寄せていました。彼は、死を取り巻く否定的な要素がある場合、悲嘆に暮れる人々にさらなる困難が生じる可能性を指摘しています。

例えば、ある人に対してアンビバレントな感情を抱いていた人が亡くなった場合、その人は罪悪感を抱くことになります。あるいは、ある人が殺人などの恐ろしい状況で亡くなった場合、悲嘆に暮れている人はそれを受け入れることが難しくなるかもしれません。

フロイトはこれを「メランコリア」と呼びましたが、「複雑性悲嘆」とも呼ばれます。極端な例では、幻覚を見たり、死んだ人が生きていると思い込んだりすることもあります。ゴーストボットは、複雑性悲嘆を経験している人にさらなるトラウマを与え、幻覚などの関連する問題を悪化させる可能性があるのです。

チャットボットの恐怖

このようなゴーストボットが、喪に服している人に有害なことを言ったり、悪いアドバイスをしたりするリスクもあると思われます。ChatGPTやチャットボットのような同様の生成ソフトウェアは、ユーザーに誤った情報を与えたとして、すでに広く批判されています。

AI技術が暴走し、ユーザーに不適切な発言をし始めたらどうなるでしょうか。

2023年にジャーナリストのケヴィン・ルースが経験した、Bingのチャットボットが妻と別れさせようとしたときのような状況です。亡くなった父親がAIゴーストとして息子や娘に呼び出され、自分は愛されていない、好かれていない、父親のお気に入りではないというコメントを聞かされたら、非常に傷つくでしょう。

あるいは、もっと極端なシナリオでは、ゴーストボットがユーザーを死に追いやったり、誰かを殺したり危害を加えたりするよう提案した場合です。ホラー映画の筋書きのように聞こえるかもしれませんが、それほど突飛な話ではありません。2023年、イギリスの労働党は、暴力を扇動するAIの訓練を防止する法律の概要を発表しています。

これは、「感情的かつ性的」な関係を持ったチャットボットのガールフレンドに煽られた男が、年初に女王暗殺未遂事件を起こしたことを受けたものです。

ChatGPTの作成者は現在、このソフトウェアがエラーを起こし、情報を捏造するため、まだ完全には信頼できないことを認めています。人のテキスト、Eメール、ビデオがどのように解釈され、このAI技術によってどのようなコンテンツが生成されるのか、誰にもわからないのです。

いずれにせよ、この技術がどこまで進歩しようとも、かなりの監視と人間の監督が必要であることは間違いなさそうです。

忘れることは健全

この最新技術は、無限の可能性を秘めた無限のデジタル文化について多くのことを語っています。

データはクラウド上に無期限に保存することができ、すべてが検索可能で、本当に削除されたり破壊されたりしたものはありません。忘れることは健全な悲嘆の重要な要素の一つですが、忘れるためには、人々は故人を思い出すための新しく意味のある方法を見つける必要があるでしょう。

記念日は、喪に服している人が失った愛する人を思い出すのに重要な役割を果たすだけでなく、新しい方法で喪失を表現する機会でもあります。儀式や象徴は、人間が正しく忘れるために、正しく思い出すことができる何かの終わりを示すことができます。

News Source

Ghostbots: AI versions of deceased loved ones could be a serious threat to mental health By Nigel Mulligan『THE CONVERSATION』

本記事は『THE CONVERSATION』(2024年3月14日掲載 / 文=Nigel Mulligan)からのご提供を頂き、翻訳の上、お届けしています。

The Conversation
タイトルとURLをコピーしました