
AI幻覚とは、人工知能ツールが、存在しないデータパターンをアルゴリズムが発見したり、そのパターンを誤って解釈したりすることで、不正確、誤解を招く、または支離滅裂な出力を出す状況を指します。
ここ数年、人工知能の機能と普及が進むにつれ、その欠陥や脆弱性が明らかになってきました。
人々が抱く最大の疑問の一つは、AIの正確性です。多くの場合、AIは事実確認や情報調査において非常に有用なツールであることが証明されていますが、中にはAIが出す結果が不正確であったり、誤解を招くものであったりするケースもあります。
現代社会においてAIが適用されているユースケースの多様さを考えると、こうした不正確さの影響は非常に深刻なものになり得ます。この記事では、AI幻覚がなぜ起こり得るのか、技術的および社会的観点からどのような影響があるのか、そしてAI幻覚のリスクを最小限に抑えるためにできることについて考察します。
AI幻覚はどのように起こるのでしょうか?
AI幻覚が発生する理由はいくつかありますが、多くの場合、複数の原因が同時に重なって発生します。これらには以下が含まれます (ただし、これらに限定されるわけではありません)。
- その原因としては、AIモデルから包括的かつ正確な結果を導き出すための十分なトレーニングデータがないことなどが挙げられます(ただし、これらに限定されるわけではありません)。
- トレーニングデータが多すぎると、 その結果、関連性のない「データ ノイズ」が、関連性のある重要な情報と混同されてしまいます。
- 生成された結果に反映されるデータ内の偏り。
- 入力された情報から、AI モデルが単純に間違った仮定や結論を下してしまうこと。
- オブジェクトの物理的特性や、生成される結果に関連するより広範な情報など、AI モデル内に現実世界のコンテキストが欠けていること。
AI 幻覚とはどのようなものなのでしょうか。
AI 幻覚の症状は、モデルの欠陥や関連するプロセスによって異なるため、一律に定義されるものではありません。ただし、通常、AI 幻覚は次の 5 つのいずれかの形で現れます。
- 不正確な予測: AI モデルは、現実的に起こる可能性がほとんどないか、まったくない将来何かが起こると予測してしまうことがあります。
- 情報が欠落している要約:AIモデルは、正確で包括的な結果を生成するために必要な重要なコンテキストや情報を見逃してしまうことがあります。これは、モデルに入力されたデータが不足している場合や、モデルが他のソースから適切なコンテキストを検索できない場合に発生することがあります。
- 捏造された情報を含む要約:前述の点と同様、一部のAIモデルは、正確な情報の欠如を補うために、完全に捏造した情報を提供してしまう可能性があります。これは、モデルが依存しているデータやコンテキストがそもそも不正確である場合によく発生します。
- 誤検知と誤検出:AIは、医療現場における病気の症状や銀行・金融機関における不正行為など、潜在的なリスクや脅威を特定するためによく使用されます。AIモデルは、存在しない脅威を特定してしまう場合もあれば、逆に、存在する脅威を特定できない場合もあります。
- 矛盾した結果:AIが生成した、腕や脚の数が間違った人や、車輪が多すぎる車の画像を見たことがあるなら、AIが人間にとって意味不明な結果を生成する可能性があることをご存知でしょう。
AIの幻覚を避けることがなぜ重要なのでしょうか?
AIの幻覚は大したことではなく、データをモデルに再度通すだけで正しい結果が生成され、問題を解決できると考えるかもしれません。
しかし、事態はそれほど単純ではありません。AIの幻覚が実際のユースケースに適用されたり、パブリックドメインに公開されたりすると、多くの人々に非常に深刻な影響を及ぼす可能性があります。
AIの非倫理的な使用
AIの使用は現在、一般的に注目を集めており、この技術を活用する組織は、人々に害を及ぼしたりリスクを負わせたりしない、責任ある倫理的な方法でAIを使用することがますます求められています。AIの幻覚を、故意であろうとなかろうと、チェックなしに放置することは、こうした倫理的な期待に応えることができません。
国民と消費者の信頼
前の点に関連して、多くの人々は、個人データがどのように使用されるかから、AIの能力の向上によって自分の仕事が時代遅れになるかどうかまで、AIの使用について依然として懸念しています。公の場でAIの幻覚の事例が続くと、徐々に構築されつつある一般大衆の信頼が損なわれ、長期的にはAIの使用事例とビジネスの成功が制限される可能性があります。
誤った情報に基づく意思決定
企業や人々は、可能な限り情報に基づいた最善の決定を下す必要があり、それらの決定から推測と不確実性を取り除くために、データ、分析、およびAIモデルにますます依存しています。AIモデルからの不正確な結果に惑わされた場合、彼らが下す誤った決定は、ビジネスの収益性を脅かすことから患者の誤診まで、壊滅的な結果をもたらす可能性があります。
AIの誤情報の法的および財務的リスク
上記の裁判例が適切に示しているように、不正確なAI生成情報は、法的および財務的観点から大きな損害を引き起こす可能性があります。例えば、AIを使用して作成されたコンテンツは、特定の個人や企業に対する中傷、特定の法的規制への違反、あるいは極端な場合には違法行為を示唆したり扇動したりする可能性がある。
バイアスを回避する
私たちは、誰もが平等に扱われ、特定のタイプの人が他の人よりも偏見を持たないようにするために、人々がたゆまぬ努力をしている世界に住んでいます。しかし、偏ったAIデータは、多くの場合意図せずに、そうした偏見の多くを強化することにつながる可能性があります。その良い例は、採用と募集におけるAIの使用です。AIの幻覚は偏った結果につながる可能性があり、組織の多様性、平等、およびインクルージョンの取り組みに影響を及ぼす可能性があります。
AI幻覚の典型的な例にはどのようなものがありますか?
AI幻覚を避けることは、業界のすべての人にとって困難な作業であることが証明されています。そして、それは専門知識とリソースを持たない小規模な事業でのみ起こるのではありません。次の3つのAI幻覚の例は、世界最大のテクノロジー企業のいくつかでそれが起こっていることを証明しています。
Meta AIとドナルド・トランプ暗殺未遂
2024年7月に当時大統領候補だったドナルド・トランプに対する暗殺未遂事件の後、 MetaのAIチャットボットは当初、事件に関するいかなる質問にも答えることを拒否し、その後、事件は起こらなかったと主張しました。この問題を受けてMetaはAIツールのアルゴリズムを調整したが、偏見や保守的な見解の検閲を公に訴える事態となった。
ChatGPTの幻覚と偽の法的調査
2023年、コロンビアの男性が航空会社を相手取り、人身傷害賠償請求を起こしました。彼の弁護士は、彼の訴訟をまとめ、法的提出書類を準備するために、主要なAIツールChatGPTを初めて使用しました。しかし、ChatGPTが発見した6件の判例は実在すると保証したにもかかわらず、それらの判例はどれも実在しませんでした。
マイクロソフトのSydneyがユーザーに恋をする
マイクロソフトのAI搭載チャットボットSydneyは、ニューヨーク・タイムズのテクノロジーコラムニストに対し、愛していると語り、妻と別れて自分と一緒にいるべきだと告げたと報じられました。ケビン・ルース氏によると、2時間にわたり、SydneyはAIの誤情報を拡散したり、人間になったりすることについての「暗い空想」を彼に語ったとのことです。
AI幻覚のリスクを最小限に抑えるにはどうすればよいでしょうか?
AI幻覚のリスクを回避することの重要性を考えると、AIモデルを使用する人々は、問題につながる可能性のあるあらゆる状況を軽減するために、あらゆる実用的な措置を講じる必要があります。以下の点を推奨します。
AIモデルの明確な目的を明確にする
近年AIの活用が拡大する中で、組織がAIモデルを単に活用するだけ、つまり期待する成果を全く考慮せずに利用してしまうというミスがよくある。AIモデル利用の全体的な目的を明確に定義することで、結果に焦点を絞り、一般的なアプローチやデータの使用によるAIの幻覚のリスクを回避することができる。
トレーニングデータの品質を向上させる
AI モデルに入力されるデータの質が高ければ高いほど、そこから得られる結果の質も高くなります。優れた AI モデルは、関連性があり、偏りがなく、適切に構造化され、無関係な「データ ノイズ」が除去されたデータに基づいています。これは、生成される結果が適切なコンテキストで正確であり、さらなる問題を引き起こさないことを保証するために不可欠です。
データ テンプレートを作成して使用する
AI モデルの結果がその意図された目的と密接に一致するようにするための良い方法は、入力されるデータにテンプレートを使用することです。これにより、AI モデルが使用されるたびに、同じ一貫した方法で提供されるデータに慣れ、適切なコンテキストで一貫性のある正確な結果を提供できるようになります。
応答と結果の範囲を制限する
AI モデルに多くの制約を課すことで、潜在的な結果を必要なものに絞り込むことができます。ここでフィルタリング ツールとしきい値が役立ち、AI モデルに分析と生成を一貫して正しい軌道に保つために必要な境界が与えられます。
モデルを継続的にテストし、改善する
絶えず変化する世界において、優れたソフトウェア開発には継続的な改善が不可欠であるように、優れたAIモデルも同様です。したがって、すべてのAIモデルは定期的にテストと改良を行い、データ、要件、利用可能なコンテキスト情報の変化に合わせて再調整する必要があります。
人間によるチェックとバランスを確保しましょう
AIはまだ完全に自律的に動作できるほど完璧ではないため、少なくとも何らかの人間による監視が不可欠です。人間がAIの出力をチェックすることで、AIの幻覚を特定し、出力が正確で規定の要件に適合していることを確認できます。
サイバーセキュリティ対策を強化する
AIの幻覚がサイバーセキュリティの脆弱性をもたらすリスクがある場合、可能な限り最善のサイバーセキュリティソリューションを導入することが重要です。Kaspersky カスペルスキー プラス Internet Securityには、リアルタイムのウイルススキャンが標準装備されているため、AIの幻覚によってもたらされるセキュリティ上の脅威は、悪影響が出る前に対処・排除されます。
関連記事:
