本当は怖くない「AI」 説明可能性はなぜ大事か「AI」の信頼性と透明性の確保に向けて【前編】

アルゴリズムに対する信頼性がなければ、AI技術の導入は進まないだろう。そこで今、企業はAI技術を採用した自社システムの透明性を高め、説明可能にする取り組みを進めている。

2019年12月17日 05時00分 公開
[Kathleen WalchTechTarget]

関連キーワード

ITガバナンス | 機械学習


 人工知能(AI)技術があらゆる場面で使われつつある一方で、一部に導入へのためらいが見えるのは不思議ではない。「AIはSF(サイエンスフィクション)が描く未来のようで恐ろしいものだ」という考えも根強い。そこで実際の、あるいは想像が生み出す懸念に対処するため、AI技術の信頼性と透明性を高めようと取り組む企業もある。政府機関もより高い説明可能性(Explainability)を義務付ける法律や規制を検討している。

 ユーザーからの信頼を得るには、AIエンジンが決定を下す仕組みの透明性が欠かせない。信頼できなければ、ユーザーはAI技術が組み込まれたシステムを導入しないだろう。そのため企業の間で、こうしたAI技術ベースのシステムが機能する仕組みを説明しようと積極的に取り組む動きが広がっている。目標とするのは、AIシステムが人類に対する陰謀を企てるようにトレーニングされた魂なき機械などではなく、正しいことをするツールだとユーザーに認めてもらうことだ。

 意思決定機能を備えるさまざまな製品にAI技術が組み込まれ始めている。それに伴い、企業はそうしたシステムで実際に何が起こっているのか、システムがどのように動作しているかを、よりオープンにしようと努めている。つまり時間をかけてアルゴリズムの仕組みについての情報や機械学習モデルのトレーニングに使うデータの詳細を公開している。このような活動には、ユーザーがAIシステムに不安を感じないよう支援し、AIシステムの信頼性と透明性を高めるという目標がある。

AIシステムへの信頼の構築

ITmedia マーケティング新着記事

news041.jpg

楽天グループが「楽天市場」出店店舗向けに「楽天AI大学」を公開
2024年3月より提供している店舗運営支援ツール「RMS AIアシスタント β版」に加え、AIツ...

news070.jpg

中国発AIソーシャル工作のゾッとする実態をMicrosoftがレポート
Microsoftが中国を拠点とする影響力工作の増加についてのレポートを発表した。これは米国...

news042.jpg

顧客の応募可能性をレシートで分析 読売新聞が新たな販促キャンペーンサービスを提供
システムインテグレーターのビーマップと同社子会社のMMSマーケティングは、読売新聞東京...