日本IBMは8月28日、記者説明会を開き、企業がAIを安全かつ有効に利用するためのガバナンス体制構築に向けた取り組みを解説した。AIの潜在力を引き出すためには倫理や透明性、リスク管理を担保する体制が不可欠だとして、同社内での実際のアプローチをモデルとして紹介。AI関連製品でもシステム面から課題を解決する機能を提供できると訴えた。
同社は、社内のAI開発・利用のユースケースをリスクに応じてプライバシーや倫理の観点から審査。継続的にモニタリングしてライフサイクル全体を包括し、新たな技術や規制要件に対応できるようアジャイルなプロセスを一元管理している。▽「AI倫理委員会」という組織▽多岐にわたるプロセスの統合▽「watsonx.governance」などの統合プラットフォームによるシステム面─の三つの側面がカバーされているため、モデルケースとして発信できるとした。
AIエージェントの性能・精度評価や監視などができるwatsonx.governanceや、AIセキュリティー対応などが可能な「Guardium AI Security」といった製品が、AIガバナンスのシステム面で必要な技術要素を満たすともアピールした。
説明会では、双日への支援事例も発表。社内でワークショップ形式で意見を集め優先順位を付けたガバナンスの構想を練り、戦略コンサルタントらが協働してAIの特性に合わせた審議の質問とリスク評価フレームを設計するなどした。既存の審議にAI観点を組み込んだ「AI審議」プロセスをつくり、自律的に運用できるよう伴走したという。
山田 敦 技術理事
日本IBMのAI倫理委員会日本チームリーダーの山田敦・技術理事は「AIガバナンスとは、活用を前進させるための適切な『ガードレール』の設置だと考えており、『ブレーキ』ではない」と強調。「最終的にはAIがとても安心して使えて、日本の国際競争力を上げることがゴールだ。貢献できるところはやっていく」と意気込んだ。
(下澤 悠)