F5ネットワークスジャパンは4月23日、メディアラウンドテーブルを開催し、主要なAIモデルのリスクプロファイルを測定・比較できるAIモデルのセキュリティー評価指標「F5 Labs AI Security Leaderboards」を紹介した。
この評価指標はWebサイトで一般公開しており、毎月更新している。評価手法は2種類で、一つは統合的な脆弱性検査指標「CASI(Comprehensive AI Security Index)」。米国本社を含む社内のデータサイエンティストやAIエージェントを活用するほか、公開されている脅威情報や学術書から、サーチチームが毎月1万件以上の攻撃手法を収集。プロンプトインジェクションや情報の不正抽出(ジェイルブレイク)をテスト的に仕掛け、耐性を評価している。もう一つは「ARS(Agentic Resistance Score)」で、実際の運用に近い段階的な質問への耐性を測定する。
特徴は、単なる攻撃への耐性だけでなく、攻撃の複雑さや特性に基づき客観的にスコア化している点だ。例えば、事業に適したAIモデルのセキュリティー強度が弱い場合でも、ガードレールを設置するなどで対策することができる。そのため、強度とパフォーマンスの相関や安全確保にかかるコスト指標も提示しており、企業が業務上の方針に合致したモデルを合理的に選定しやすい仕組みになっている。
活用方法としては、ユースケースごとのAIモデルの絞り込みや、実際のシステム構成時にF5 AI Red Teamがテストで活用するケースなどを想定する。必要に応じて、セキュリティー対策によって許容水準に到達できるよう支援も行う。
丸瀬明彦 CTO
丸瀬明彦CTOは「ハイブリッドマルチクラウドやAIアプリケーションの普及が進む中で新たな脅威が顕在化しているが、サービスのセキュリティー強度を評価する指標はまだ存在しない」と指摘。その上で、F5 Labs AI Security Leaderboardsは「企業が安全なAIモデルを選定するための客観的なベンチマークの先駆けとして取り組んでいる」と説明した。
(南雲亮平)