ChatGPTなど生成AIの安全性は?主要6社を比較

ChatGPTの安全性を再考する:AI安全性指数から学ぶべきこと

AI技術の急速な進歩は私たちの日常に変革をもたらしていますが、その反面、AIがもたらすリスクや課題も注目されています。OpenAIのChatGPTのような生成型AIが安全に利用されるためには、何が必要なのでしょうか?

米国の非営利団体「フューチャー・オブ・ライフ・インスティテュート」(Future of Life Institute, FLI)の「AI安全性指数2024(FLI AI Safety Index 2024)」から学び、考察してみましょう。


AI安全性指数とは?

FLIのAI安全性指数は、AI企業がどの程度安全性を考慮しているかを評価したもので、以下の6つの分野で分析されています。

  1. リスク評価:AIが引き起こす可能性のある危険性の把握と対応策
  2. 現在の被害:現在までに報告されている安全上の問題
  3. 安全フレームワーク:リスクを管理するための構造的な枠組み
  4. 存在的リスク戦略:人類に大きな影響を及ぼすリスクへの対応
  5. ガバナンスと責任:企業内部の意思決定や外部への説明責任
  6. 透明性とコミュニケーション:情報開示の程度と社会への説明

主要AI企業の評価結果(スコアカード)

以下は、レポートに基づく企業ごとの評価です。6社全てに対策の不備があるとし、「AIを人間の制御下に置くための適切な戦略を取っていない」と批判されています。

評価対象企業

以下の6つの企業が評価対象となりました:

  • Zhipu AI(中国のAI企業)
  • Anthropic(Amazonも投資するAI企業 Claudeを運営)
  • OpenAI(ChatGPTを運営)
  • Google DeepMind(Google Geminiを運営)
  • Meta(旧Facebook)
  • x.AI(イーロンマスクが運営)

主要AI企業6社の安全性評価では、設定された評価基準(A~F)のうち、最も高い評価であるAやBに該当した企業はありませんでした。AnthropicがC評価を獲得した一方で、他の5社はDまたはF評価に留まり、安全対策の不十分さが浮き彫りとなっています。

企業名総合スコアリスク評価現在の被害安全フレームワーク存在的リスク戦略ガバナンスと責任透明性とコミュニケーション
AnthropicC (2.13)C+B-D+D+C+D+
Google DeepMindD+ (1.55)CC+D-DD+D
OpenAID+ (1.32)CD+D-D-D+D-
Zhipu AID (1.11)D+D+FFDC
x.AID- (0.75)FDFFFC
MetaF (0.65)D+DFFD-F

ChatGPTの課題と可能性

1. 現在の課題

  • 攻撃への脆弱性
    • ChatGPTを含む全てのAIモデルが「ジェイルブレイク攻撃」に対して脆弱であり、悪意ある操作が可能とされています。
  • ガバナンスの弱さ
    • 非営利から営利モデルへの移行に伴い、安全性の優先度が低下したと指摘されています。OpenAIやGoogle DeepMindはガバナンスに一定の努力をしているものの、収益を重視する企業文化が安全対策を優先する妨げとなっていると指摘されています。

2. 理想的な方向性

  • 外部監査の強化
    • 第三者機関によるモデルの安全性評価を標準化すべきです。
  • 透明性の向上
    • リスク評価や安全対策を公開し、社会との信頼を構築する必要があります。
  • 国際協調の推進
    • AI開発におけるリスク管理は一企業では対応しきれないため、国際的な枠組みでの対応が求められます。

ユーザーにとっての安全性とは?

AIの安全性は、ユーザーに直接的な影響を及ぼします。例えば、ChatGPTを利用する教育や医療の現場で、誤情報やバイアスが含まれる回答が提供されることは大きな問題です。これを防ぐために、以下の取り組みが必要です:

  • ユーザー視点での安全設計:AIモデルが社会に与える影響を常に考慮すること。
  • 透明な利用ポリシー:ユーザーデータがどのように利用されるかを明示すること。

結論:安全性を伴ったAIの未来へ

「AI安全性指数2024」が示すように、現在のAI開発には多くの課題が残されています。しかし、適切なガバナンス、透明性、リスク管理を導入することで、AIの恩恵を最大限に引き出すことができます。これからのAIは、単に技術の進歩を目指すだけでなく、社会に安全かつ持続可能な形で貢献する存在となるべきです。

出典:FLI AI Safety Index 2024

高セキュリティと低コストを実現するローカルLLM

ある日本企業に対する調査では、72%が業務でのChatGPT利用を禁止していると報告されています。社内の機密情報がChatGPTのモデルに学習されて、情報漏洩の可能性を懸念しているためです。

そのため、インターネットに接続されていないオンプレミス環境で自社独自の生成AIを導入する動きが注目されています。ランニングコストを抑えながら、医療、金融、製造業など機密データを扱う企業の課題を解決し、自社独自の生成AIを導入可能です。サービスの詳細は以下をご覧ください。

いますぐサービス概要を見る▶▶▶