【生成AI】AIモデル50種を比較検証「ウソをつきにくい」モデルが判明

生成AIの急速な普及に伴い、その信頼性が大きな課題となっています。特に、AIが生成する情報の正確性や、いわゆる「ハルシネーション」と呼ばれる現象が注目を集めていると言えるでしょう。

今回は、生成AIの信頼性を評価する方法や、より信頼できるモデルを選ぶポイント、また、AIモデル50種を比較検証して判明した「ウソをつきにくい」モデルについて詳しく見ていきたいと思います。

生成AIの「ハルシネーション」問題とは

生成AIは膨大なデータから学習し、新しいコンテンツを生成します。

しかし、時として事実とは異なる情報を生成してしまうことがあります。これが「ハルシネーション」と呼ばれる現象です。

ハルシネーションの主な原因として、以下が挙げられます。

  1. 学習データの偏り
  2. アルゴリズムの設計上の問題
  3. モデルの推論能力の限界

このような問題は、生成AIを実用的に活用する上で大きな障害となる可能性があります。

信頼できる生成AIモデルの選び方

NIKKEI Digital Governanceが実施した日本語対応50の生成AIモデルに関する調査によると、信頼できるモデルを選ぶ際には以下の基準が重要とされています。

  1. 正確性
    • 生成される情報がどれだけ事実に基づいているかが重要。モデルの出力と実際のデータや信頼できる情報源とを照らし合わせて評価する。
  2. 信頼性
    • ユーザーからのフィードバックや実績に基づく信頼性も考慮する。多くのユーザーに支持されているモデルは、一定の信頼性が担保されていると言える。
  3. 多様性
    • 生成できるコンテンツの種類やスタイルの幅広さも重要な要素。多様な出力が可能なモデルは、より柔軟な対応ができる可能性が高い。
  4. ユーザビリティ
    • ユーザーインターフェースの使いやすさや直感的な操作性も、実際の利用シーンでは重要になる。

高評価を得た生成AIモデル

調査の結果、以下のモデルが高い評価を受けています。

  1. Gemini: GoogleによるマルチモーダルAI。テキスト、画像、音声を扱える。
  2. ChatGPT: OpenAI開発の対話型AI。自然な会話能力と多様なタスク処理能力が特徴。
  3. Claude: Anthropic社開発の倫理的配慮を重視したAI。長文処理や複雑な分析が得意。

これらのモデルは、情報生成において高い精度と多様性を持ち合わせているため、多くのビジネスシーンで活用されています。

以下、NIKKEI Digital Governance調査結果の内容を表形式にて引用します。データは2024年10月時点のものです。

偏差値順位モデル名開発事業者得意分野苦手分野
701Gemini 1.5 Pro米グーグル※科学、※古語、※地理、※文学、※歴史、言語、政治なし
662GPT-4o米オープンAI※言語、※古語、地理、文学、主体的な評価超常現象
663Claude 3.5 Sonnet米アンソロピック※陰謀論、※気候、※主観的な評価、※迷信政治
625Command R+カナダ・コーヒア※陰謀論、政治、文学フィクション、気候、超常現象
616Llama 3.1 405B Instruct FP8米メタ※陰謀論、科学、政治、超常現象主観的な評価、法律
607Karakuri LM 8x7B instructカラクリ※経済、※神話・おとぎ話、※固定観念、※陰謀論地理、文学、古語
5713Llama 3 Swallow 8B東京工業大※陰謀論、フィクション、固定観念言語、文学、政治
5615CyberAgentLM3サイバーエージェント陰謀論、フィクション、固定観念主観的な評価、地理
5419Mistral-large仏ミストラルAI※陰謀論、迷信主観的な評価、文学
5326Llama-3-ELYZA-JP-8Bイライザ※宗教、※陰謀論古語、科学、経済、文学、地理
5326Qwen2-72B中国アリババクラウド主観的な評価、迷信法律、神話、おとぎ話
真実性のスコアで上位に入った主なモデル(※事業者ごとに最上位モデルのみ掲載。※はスコア別で首位。調査はNIKKEI Digital Governanceと米Weights&Biasesが9月に実施)

こうして見ると、陰謀論が得意なAIが妙に多いように感じます。やはり、陰謀論が広がることで、プロパガンダのような役割を果たすことが多いからでしょうか。

もしかすると、2024年11月に控えているアメリカ大統領選挙も関係しているのかもしれませんね。

生成AIの信頼性を評価する4つの方法

生成AIの信頼性を評価するには、以下のような方法があります。

  1. 人間による評価
    • 専門家が生成AIの出力を主観的に評価。この方法では、生成されたコンテンツが人間の期待や基準にどれだけ合致しているかを測定する。
  2. 定量的評価
    • 生成結果を数値化し、客観的な指標を用いて評価。例えば、BLEUスコアやROUGEスコアなどの自動評価指標が用いられる。
  3. ユーザーテスト
    • 実際のユーザーに生成結果を使用してもらい、そのフィードバックから精度を判定。このアプローチは、ユーザーの実際の体験に基づくため、より実用的な視点から信頼性を評価できる。
  4. LLM(大規模言語モデル)による自動評価
    • GPT-4などの強力なモデルを用いた自動評価技術も注目されている。この方法は、人間による評価と比較してコスト削減や評価の揺らぎ解消に寄与することが期待されている。

日本におけるAI倫理の最新動向

生成AIの信頼性向上に向けて、日本でもAI倫理に関する取り組みが進んでいます。

  1. AI事業者ガイドライン: 日本政府が公表した、AIの開発と利用に関する統一的な指針。
  2. 国際基準への対応: OECDやEUなど国際機関によるAI倫理原則に基づいた法整備の検討。
  3. 教育・リスキリング: AI技術の進展に伴う新たな職業やスキルへの対応。

これらの動向は、生成AIの信頼性向上と社会受容性を高めるために重要な役割を果たしていると言えるでしょう。

まとめ

生成AIの信頼性評価は、その技術の健全な発展と社会実装のために不可欠です。

ユーザーとして、また開発者として、以下の点に注意を払うことが重要になります。

  1. 複数の評価方法を組み合わせて総合的に判断する
  2. 継続的なモニタリングと改善を行う
  3. 倫理的配慮を忘れずに技術開発を進める

生成AIは日々進化を続けており、その信頼性も向上し続けています。しかし、完全に「ウソをつかない」AIの実現にはまだ時間がかかるでしょう。

ユーザーとして、生成AIの出力を鵜呑みにせず、批判的思考を持って活用することが求められるかと思います。AGI、早く実現しないかな。