OpenAI がプライバシー危機に直面: ChatGPT が致命的な嘘をでっち上げ、欧州規制当局が同社に責任追及

OpenAIのチャットボットChatGPTは、ユーザーに関する致命的な嘘をでっち上げたことで、再びヨーロッパでプライバシー侵害の苦情の中心となっている。この苦情は、プライバシー権擁護団体Noybが提出したもので、ノルウェー人男性が支援している。同男性は、ChatGPTが2人の子供を殺害し、3人目を殺害しようとしたという嘘の話をでっち上げたことを知って衝撃を受けた。

この事件は、ChatGPTが不正確な情報を生成するリスクを浮き彫りにし、データ保護とプライバシーの責任に関する大きな懸念を引き起こした。Noybは、ChatGPTの行動が 欧州連合の一般データ保護規則(GDPR)特に個人データの正確性と修正に関しては、細心の注意を払います。

「捏造殺人事件」が地元に衝撃

問題の男性、アルヴェ・ヒャルマー・ホルメンは、ChatGPT と会話を交わし、AI に自分に関する情報を尋ねた際に驚いた。正確な詳細を提供する代わりに、AI は完全に虚偽の話をでっち上げ、ホルメンは 2 人の息子を殺害し、3 人目の息子を殺害しようとした罪で有罪判決を受けたと主張した。AI の返答は、子供の数と性別に関しては部分的に正確だったが、でっち上げられた殺人物語は非常に不安をかき立てる内容だった。

ノイブ氏は、子供たちの性別や家族の居住地など、特定の詳細が部分的に正確であったにもかかわらず、捏造された殺人の申し立てがホルメン氏に多大な精神的苦痛を与えたことを強調している。

プライバシーとデータの正確性: GDPR の厳しいテスト

Noyb の法務チームは、GDPR では個人データは正確でなければならないと明確に規定されており、個人には不正確な点が生じた場合に訂正を要求する権利があると主張している。OpenAI が AI が間違っている可能性があると記載した短い免責事項は、責任を免除するものではない。OpenAI は誤った情報を生成したことについて責任を取らなければならない。

GDPR では、データ管理者 (この場合は OpenAI) は、処理するすべての個人データが正確であること、および個人がエラーを修正するための明確なメカニズムを備えていることを保証する必要があります。ただし、ChatGPT は現在、誤った情報を修正する手段を提供していないため、会社が罰則を受ける可能性があります。実際、GDPR に違反すると、会社の全世界の年間収益の最大 4% の罰金が科せられる可能性があります。

欧州規制当局が法的責任を強化

この事件は、AI生成コンテンツに対する懸念が高まっている欧州の規制当局から大きな注目を集めている。Noybはノルウェーで苦情を申し立て、関係規制当局にOpenAIの慣行の徹底的な調査を要請した。他の関連訴訟も進行中である。例えば、 ポーランドのプライバシー規制当局 2023年9月以降、OpenAIのChatGPTに対して正式な回答を出していない。

一部の国はより慎重な姿勢を取っており、生成AIツールを全面的に禁止するつもりはないが、捏造された情報がもたらす危険性により、規制当局は姿勢を変える可能性がある。OpenAIはすでに複数の国で規制措置に直面しており、イタリアではデータ保護規制に完全に準拠していないとして同社は2023年に一時的に活動停止となり、1500万ユーロの罰金を科せられた。

AI製造の問題: 倫理から法的課題まで

この事件は、特に倫理的および法的観点から、情報の捏造に関して AI がもたらす潜在的なリスクを改めて強調しています。 ノイブの弁護士らは、AI企業は責任を回避するために単に免責事項に頼ることはできないと主張している。「『私たちが間違っているかもしれない』という免責事項を付け加え、その後に生じた損害を無視することはできない」と彼らは述べた。

AI ツールがますます普及するにつれ、個人のプライバシーや評判を損なう可能性に対する懸念が高まっています。AI 企業は、虚偽の情報の拡散を防ぐだけでなく、そもそもそのような情報が捏造されないようにすることで、より多くの責任を負う必要があります。

将来の規制と責任: OpenAI はプライバシーの課題にどのように対処するのでしょうか?

Noyb 氏の新たな苦情は、OpenAI にとっての課題であるだけでなく、世界中の AI 企業が直面している共通の問題でもあります。つまり、捏造された情報によって自社の技術が法的および倫理的な結果を招かないようにするにはどうすればよいかということです。欧州の規制当局が AI ツールの監視を厳しくする中、OpenAI がこれらの課題にどのように対応するかは、世界市場でのコンプライアンスに大きな影響を与えることになります。

将来的には、プライバシーに関する苦情や規制措置が増加し、AI 企業は製品設計においてデータ保護とユーザーの権利を優先せざるを得なくなる可能性があります。イノベーションとプライバシー保護のバランスを取ることは、AI 企業が取り組まなければならない重要な問題になりつつあります。