生成AIの「嘘」と「偏見」の問題:生成AIが持つ危険性

生成AIは、テキスト、画像、動画、音楽などの新しいコンテンツを生成する素晴らしい技術です。しかし、この技術には深刻な問題が存在します。

それは、生成AIが「嘘」を生成してしまう危険性と、学習データにおける偏りです。この記事では、これらのリスクとその対処方法について解説します。

生成AIが誤った情報を生成した代表的な事例

ChatGPTなどの生成AIしてしまう誤情報や偏見について、以下の具体的な事例が報告されています。

1. 架空の判例を引用した裁判資料の作成

2023年の記事によると、以下のような事件があったようです。

米紙ニューヨーク・タイムズ(電子版)など米メディアは、ニューヨーク州の連邦裁判所で審理中の民事訴訟で、弁護士が対話型AIサービス「チャットGPT」を使って作成した準備書面に、実在しない判例が多数含まれていたと報じた。

生成AIは、たとえ誤った情報であっても自信を持って提供するため、このような事態が発生するのはけっして珍しくはありません。

引用:読売新聞オンライン「チャットGPTで訴訟準備書面、実在しない判例6件引用…米連邦裁判所「前例のない事態」」

2. ラジオパーソナリティへの虚偽情報の拡散

こちらも2023年に起こった事件です。

ラジオパーソナリティのMark Walters氏がChatGPTに自分自身について聞いたところ、「詐欺を働いて資金を着服した」といった虚偽の情報がされました。その結果、Mark Walters氏は名誉毀損でOpenAIを訴えています。

この事例は、生成AIが事実無根の情報を生成し、個人の名誉を傷つけるリスクを示しています。

参考:GIGAZINE「ChatGPTが虚偽の出力をしたとして名誉毀損で訴えられる」

3. 市長への架空の犯罪歴の付与

続いても名誉毀損に関する事件です。

オーストラリア南部ヘップバーンシャーの市長が、対話型人工知能(AI)「チャットGPT」に自身が贈賄罪で服役していたという虚偽の説明があるとして、訂正されなければ開発した米オープンAIを名誉毀損で訴えると明らかにした。

この事件はChatGPTを利用していた市民から知らされて、初めて市長は知ったそうです。この情報が悪意を持って拡散されれば、市長は社会的信用を損なう可能性もあったでしょう。

引用:Reuters「豪市長、チャットGPT提訴も 「前科」誤情報の訂正要求」

4. 学術分野での不正利用

学生が授業やレポートに対してChatGPTを利用することに、多くの議論が交わされています。多くの大学が注意喚起や制限を行っており、たとえば、東京大学では以下のような声明が発表されています。

レポートや論文では、根拠となった出典を明記した上で、自分なりの考えを記載することが求められます。授業課題を提出する際に、生成系AIツールが生成した文章等をそのまま自分の文章として用いることは認められません。

学業に関するChatGPTの利用に関しては、それぞれの学校によって異なるため、今後も話題になる可能性は高いでしょう。

引用:utelcon「東京大学の学生の皆さんへ:AIツールの授業における利用について(ver. 1.0)

生成AIが生成する「嘘」の問題

生成AIが生成するコンテンツには、不正確な情報や完全に嘘である情報が含まれる可能性があります。この問題の要因は、以下の3つです。

  1. 大量のデータを学習する過程で、間違っている情報や誤った情報を吸収し、それを再現してしまう。
  2. 生成AIが人間のようなテキストを生成することに重点を置いているため、時に嘘や誤った情報を生成する確率が高くなる。
  3. 生成AIが、誤った情報や偽情報を見抜けず、結果としてそれを拡散してしまう可能性がある。

生成AIの「偏り」の問題

また、生成AIが生成するコンテンツには、学習データに含まれる偏りが反映される可能性もあります。この問題の要因は、以下の2つです。

  1. 学習データに偏りが含まれている場合、生成AIはそれを忠実に再現し、狭い範囲の視点でコンテンツを生成してしまう。
  2. 現段階では、偏りを検出するのが困難なため、偏りを修正できずにコンテンツを生成してしまう可能性があります。

嘘や偏りのないコンテンツを生成するためには

これらの問題に対処するためには、以下のような対策が必要です。

  • 生成AIが生成するコンテンツの正確性や信頼性を確認するためのチェック機構を導入する。
  • 人間が生成AIのコンテンツを検証し、必要に応じて修正を行う。
  • 多様な学習データを確保し、偏りを減らすことで、生成AIがより公平で信頼性の高いコンテンツを生成できるようにする。

「嘘」や「偏見」の問題を解決するために

生成AIの技術は、人間のクリエイティブな活動を支援する強力なツールとなり得ます。しかしながら、「嘘」や「偏見」の問題を解決しなければ、その進歩が社会にとって害をなす可能性があります。

これらの問題を解決するためには、生成AIの技術的な側面だけでなく、倫理的な側面にも目を向ける必要があるでしょう。技術者や研究者だけではなく、社会全体が協力し合い、生成AIの進歩が責任を持って行われることが求められます。

高セキュリティと低コストを実現するローカルLLM

ある日本企業に対する調査では、72%が業務でのChatGPT利用を禁止していると報告されています。社内の機密情報がChatGPTのモデルに学習されて、情報漏洩の可能性を懸念しているためです。

そのため、インターネットに接続されていないオンプレミス環境で自社独自の生成AIを導入する動きが注目されています。ランニングコストを抑えながら、医療、金融、製造業など機密データを扱う企業の課題を解決し、自社独自の生成AIを導入可能です。サービスの詳細は以下をご覧ください。

いますぐサービス概要を見る▶▶▶