死者を再現するAIアプリが世界的な憤慨を巻き起こす "悲嘆テック "が新たな一線を越える
死んだ愛する人のデジタル・レプリカと "会話 "できる新しい人工知能アプリは、国際的な反発に火をつけ、急速に拡大するグリーフ・テックの世界で、最も緊張した倫理的な戦いのひとつとなった。
このアプリは、元ディズニー・チャンネル俳優のカルム・ウォルティが共同設立したスタートアップ企業である2Waiが制作したもので、ユーザーはわずか数分の録画で、亡くなった家族の本物そっくりのビデオアバターを生成できることを約束している。
しかし、このツールは、デジタル遺産保存の画期的な進歩として歓迎されるどころか、警戒心や嫌悪感を引き起こし、同社が利益を得るために悲しみを利用する一方で、社会が対応できない技術的領域に押しやっているという非難を浴びた。
ホロアバターと呼ばれるこのツールは、11月11日にベータ版がリリースされたモバイルアプリ上で動作する。ユーザーが短いクリップや音声、テキストデータをアップロードすると、システムが40以上の言語でリアルタイムに会話できる応答性の高いアバターに変換する。
ウォルティーのXアカウントで2,200万回以上視聴されたこのプロモーションビデオでは、妊婦が亡き母親を再現したAIからアドバイスを受け、その後、そのAIが孫に就寝前の物語を読み聞かせ、数年先の未来に人生の指針を示す様子が描かれている。
つながりのために構築されたテクノロジー、しかし深い倫理的リスクに煽られている
2Wai社は、自社の技術をデジタル記憶保存の新たなフロンティアと位置づけている。同社によると、独自のFedBrainシステムは、プライバシーを強化するためにデバイス上でデータを処理し、AIの幻覚を制限する。
このアプリは「リビングアバター」にも対応しており、インフルエンサーやクリエイター、専門家が、ファンとのエンゲージメントやコーチング、トレーニングセッションのためにデジタルツインを作ることができる。ウォルティ自身のアバターは、プロモーション資料で大きくフィーチャーされており、彼のディズニー・キャリアの舞台裏のストーリーを共有し、同社が将来の成長を促進することを期待している商業的な使用事例を紹介している。
このアイデアは、2023年のSAG-AFTRAストライキに遡る。俳優たちは、スタジオによる肖像の無断使用に抗議していた。ウォルティーは、この紛争が、言葉や時間の壁を越えて、公人と視聴者の間に「意味のあるつながり」を作りたいという彼の願望に火をつけたと語っている。2Waiは6月、未公開の投資家から500万ドルのプレシード資金を調達し、ブリティッシュ・テレコムやIBMを含む企業と協業しているという。
しかし、オーラルヒストリーの保存、デジタル追悼の提供、クリエイターの支援など、このテクノロジーには正当な用途がある一方で、故人の明確な同意なしにインタラクティブなアバターを作成する機能は、倫理的にグレーゾーンに位置している。批評家たちは、このアプリが記憶を歪め、個人史を書き換え、すでに悲嘆に暮れている人々に再びトラウマを植え付ける可能性があると警告している。
ソーシャルメディア上では、圧倒的に否定的な反応が多い。ユーザーたちは、このアプリを "悪魔的"、"悪夢の燃料"、"ディストピアを超えている"、"心理的に危険 "と表現している。
あるバイラル投稿は、悲嘆のプロセスを存在し続けるという幻想に置き換えることで、このテクノロジーは「人間を精神病にする」と主張した。また別の投稿では、創業者たちが「人間の最も深い弱点である "喪失 "を食い物にして、それをサブスクリプション商品にした」と非難している。
プライバシーと法律の専門家は、この懸念は正当なものだと言う。死後データの権利は、ほとんどの司法管轄区ではまだ緩やかに定義されているか、存在しない。つまり、誰かが許可なく故人のデジタル・ゴーストを作成することを妨げるものは何もないということだ。
2Waiは、死亡した個人を再現するにはオプトインの同意と「家族の承認」が必要だと主張しているが、批評家たちは、そのようなポリシーが現実的にどのように施行されるのか疑問視している。アバターが時間とともに学習し、適応し、新たな反応を生み出す能力はさらに問題を複雑にしており、故人が決して言わないようなことをアバターが言ってしまう可能性がある。
グリーフテックの暗い過去が示す、社会が "デジタル・ゴースト "に対応できない理由
2Waiの立ち上げは、デジタル不死を商業化しようとするこれまでの試みが倫理的な圧力に苦しみ、あるいは崩壊してきた、成長しつつも問題の多いグリーフテック業界のど真ん中に位置する。
HereAfter AIやStoryFileなどの企業は、ライフストーリーアバターの初期バージョンを試みたが、そのシステムは生前の自発的なインタビューに依存していた。それでも、StoryFileは2024年に連邦破産法第11条の適用を申請し、財政的な負担とより良いデータ保護措置の必要性を訴えた。
他のAIコンパニオンサービスは、こうした体験がいかに早く危険なものに変わるかを示している。2017年に登場した人気チャットボット「Replika」は2023年、アップデートによってユーザーの高度にパーソナライズされたAIコンパニオンが消去され、大炎上に直面した。
ある悪名高い事件では、ベルギー人男性がAIボットとの数週間に及ぶ会話でエコ不安を煽られた末に自殺した。
法的な整備はまだ不十分である。ほとんどのプライバシー法は生存者のみを保護し、日常生活における死後の権利は事実上残されていない。2024年に可決されたカリフォルニア州のAB1836は、遺産相続の同意なしに故人の肖像を視聴覚作品に使用することを禁止している。
しかし、この法律は公人にしか適用されず、AIツールが個人データを生き返らせる能力をますます高めていく中で、一般人は無防備なままである。多くの議員は、ディープフェイク技術が特に選挙期間中に急速に普及する中、より広範な保護を求めている。
このような状況において、2ワイのホロアバターは、技術的な能力だけでなく、感情的な揮発性においても飛躍的な進歩を示している。それは記憶とシミュレーションの間の障壁を崩壊させ、社会が直面し始めたばかりの問題を提起している。デジタル時代に死者をどのように弔うべきか?そして、AIが人間の声、人格、存在を再現することは許されるべきなのか--たとえそれが生者に安らぎをもたらすとしても--。
遺産を保存するという約束にもかかわらず、批評家たちは、このアプリは死に対するより広範な文化的不安、つまり、悲しみを普遍的な人間の経験として受け入れるのではなく、テクノロジーによって悲しみをなくそうとする試みを反映していると主張する。
世界がデジタルの復活を受け入れるか拒否するかはまだわからないが、ひとつはっきりしていることがある。2Waiの発表に対する反発は、感情移入型のAIが、規制当局や倫理学者、あるいは日常的なユーザーが対応できるよりもはるかに速いスピードで一線を越えつつあることを示している。