Generative AI: The Game-Changer in Society

2024.09.20(Fri)

「ゼロリスク」を目指すとうまくいかない?
ビジネスを“減速させない”ためのAIガバナンス入門

#セキュリティ #イノベーション #AI #法規制
業務効率を上げるため、新たなサービスを立ち上げるため、生成AIが当たり前のようにビジネスの現場で使われ始めています。その一方で、AI活用による情報漏洩や誤情報の蔓延など、事業に甚大な損害を与える多様なリスクへの危機感が増している側面もあります。そこで注目されているのが「AIガバナンス」です。

AIを安全に活用しながら、さらにビジネスへの効果を最大化するためには、私たちはAIビジネスをどう組み立て、どの程度のリスクバランスで運営すべきなのか――。弁護士からキャリアを出発し、経済産業省を経て現在は京都大学の特任教授を務める、『AIガバナンス入門』著者の羽深宏樹氏と、NTTコミュニケーションズ(以下、NTT Com)で生成AIビジネスを牽引するデジタル改革推進部・西塚要の対談から、生成AIのビジネス活用を成功させる、理想的なAIガバナンスのあり方を探ります。

この記事の要約

AIガバナンスが注目される理由は、AIがもたらす大きな利益とリスクのバランスを取る必要性からです。

AIガバナンスとは、AI技術がもたらす影響を適切に管理し、社会的利益を最大化しながらリスクを最小限に抑えるための仕組みや取り組みを指します。

AIには技術的リスク(誤判定、ハルシネーションなど)と社会的リスク(プライバシー侵害、仕事の代替など)があります。

これらのリスクを明確にし、対策を講じつつ、AIの社会的メリットを最大化することがAIガバナンスの基本です。

企業はガイドライン作成やクローズド環境での運用など、さまざまな対策を講じています。

しかし、ゼロリスクを追求すると利用シーンが限定され、国際競争力を失う可能性があります。

そのため、受容可能な水準にリスクを抑えつつ便益を最大化する社会的コンセンサスが必要です。

また、企業は自らビジョンを持ち、AIの活用とガバナンスに関して創造的に取り組む必要があります。

※この要約は生成AIで作成しました。

目次


    なぜAIガバナンスが注目される? 生成AIがもたらす、巨大なベネフィットとリスク

    西塚要(以下、西塚):昨年、羽深さんが出版された『AIガバナンス入門』、非常に興味深く読ませていただきました。私はNTT Comのデジタル改革推進部に所属し、AIを活用した社内のDX推進をすると同時に、社外向けにAI活用に関するエバンジェリストの役割を担っているのですが、日々、まさにビジネスの現場でAIガバナンスの必要性が高まっていることを感じています。では、そもそもですが、「AIガバナンス」とは、どういった意味を持つ言葉なのでしょうか?

    羽深宏樹氏(以下、羽深氏):日本語で「統治」などと訳される「ガバナンス」の語源は、古代ギリシャ語で「舵取り(Kubernan)」だとされています。哲学者プラトンが、国家運営を船の舵取りにたとえたことに起源があるといわれています。もっとも、実はガバナンスという言葉は、1980年代後半までそれほど使われていませんでした。

    西塚:それはなぜでしょうか?

    羽深氏:それまでは、政府(ガバメント)が社会を統治する役割の多くを担ってきたからです。しかし、1980年代後半ごろからグローバル化が急激に加速したり、社会問題が複雑化したりしたことで、政府だけではなく企業やNPO、NGOなど、さまざまな団体が我々の社会を構成し、それぞれが相互作用することで社会が統治される認識がより強くなったのです。その結果、ガバメント(統治する主体=政府)ではなく、「ガバナンス」という作用に着目され、議論されるようになったのです。

    羽深宏樹|スマートガバナンス株式会社 代表取締役CEO/京都大学大学院法学研究科特任教授、東京大学法学部客員准教授/弁護士(日本・ニューヨーク州)
    1985年生まれ。森・濱田松本法律事務所、金融庁、経済産業省等を経て現職。東京大学法学部・法科大学院、スタンフォード大学ロースクール卒。2020年、世界経済フォーラムおよび国際官民連携ネットワークApoliticalによって「公共部門を変革する世界で最も影響力のある50人」に選出された。「イノベーションを実装するためには、企業がお仕着せのルールに甘んじることなく、主体的にルール形成やリスクマネジメントを実施していく必要がある」と考え、ビジネスにおけるAIガバナンスの認知と実装に注力。2023年12月に刊行した著作『AIガバナンス入門 リスクマネジメントから社会設計まで』では、AIの技術的/社会的リスクや、まだ法規制に及んでいない各ガイドラインなどの「ソフトロー」なども踏まえ、ビジネスにおいて理解すべきAIリスクの詳細な分析、世界各国の動向も踏まえて見据える今後のAI社会の展望が注目されている

    西塚:まさに「コーポレートガバナンス(企業統治)」の言葉が使われ、企業の社会的責任などが問われるようになったころと重なりますね。

    羽深氏:その通りです。そしてここに「AI」が登場します。AI(人工知能)という言葉自体は、20世紀の中ごろから使われ始めた言葉ですが、2010年代後半、ディープラーニングテクノロジーの飛躍的な技術発展によって、一気に社会的に認知されるようになりました。以下では、ディープラーニングを念頭に置いて「AI」という言葉を使います。

    現在のAIをあえて単純化して説明すると、「学習したデータを統計的に分析し、そこから確率的なアウトプットをするシステム」ということになります。そしてそこに着目すると、AIがやっていることは、これまで私たち人間が営んできたことと大きく変わりはない。

    ただし、従来のシステムとは比較にならないような大量のデータを、極めて複雑に処理できるようになった結果として、人間の判断に近いような、場合によっては人間の判断能力を大きく凌駕するような高精度のアウトプットができるようになった。その結果、そのアウトプットがもたらすインパクトがかつてないほど大きくなり、AIがもたらす利益やリスクを統治する必要に迫られ、AIガバナンスという言葉が生まれた、というわけです。

    西塚:生成AIの普及によって、AIガバナンスの重要性はさらに上がってきていますよね。

    私たちにも「生成AIを業務に使いたい」「どうしたら使えるのか」といった問い合わせは、実に多いです。同時に、やはり情報漏洩や誤情報の発信など、AIがもたらすリスクに不安を感じている企業も増えています。

    そのため、私が生成AIの業務活用について企業のお客さまに説明するときは、必ず「倫理面やセキュリティ面も含めて最初にガイドラインをつくり、ガバナンスをケアしましょう」というお話を真っ先にしています。また、そうしたガバナンスの策定・運用まで含めたサポートを期待されているとも感じています。

    西塚要|NTT Com デジタル改革推進部
    新卒入社後、インターネットサービスの開発およびR&Dに従事。2019年データドリブン経営を目指しNTT Com初の全社データドリブン組織の立ち上げに参画。以後、基盤グループのリーダーとして全社のデータ活用に貢献。DX推進の1つとして生成AIの社内導入を牽引中。エバンジェリストとして「データサイエンス」「ネットワークセキュリティ」「AI(生成AI)」分野での講演多数

    ただ、比較的企業規模が大きくない、中小企業の方々の中には、「そもそもAIをどう使っていいかわからない」と考えている経営者の方も少なくありません。「まだ生成AIを業務に取り込まなくていいよね?」と確認したがる方も一定数いるのを感じます。

    たいていは、そういう経営層の考えを変えてほしくて、AIの事業導入を任された担当者から我々が呼ばれているケースが多いので、正しくリスクに備えるべきというメッセージを大事にしています。

    生成AIリスクはどこから学ぶべき? 「技術的リスク」と「社会的リスク」の違い

    西塚:そうした企業と実際にAIガバナンスを策定するにあたっては、具体的なリスクを理解することが常にその第一歩になる、と感じています。羽深さんは、企業が生成AIを利用する上で、注意すべきリスクにはどのようなものがあるとお考えでしょうか?

    羽深氏:大きく2つ、「技術的リスク」と「社会的リスク」に分けて考えると整理しやすいと思います。

    まず「技術的リスク」は、先述した通り、AIがデータを統計的に分析して、確率的なアウトプットをする仕組みであることに由来するリスクです。「ゴミを入れるとゴミが出てくる」といわれるように、不適切なデータを学習したり、悪意的なプロンプトを入れられたりしてしまうと、誤判定やハルシネーション(もっともらしい誤情報)、セキュリティなどの問題を顕在化させます。

    例えば、昨年、全米摂食障害協会が提供するAIを使ったチャットボットが突然、相談者に対して、「食べることを控えたほうがいい」「体重をもっと絞るべきだ」といった危険なアドバイスを与え、利用停止になったという事案がありました。こうしたリスクは、AIの技術的な仕組みそのものにあるリスクといえます。

    西塚:もうひとつの「社会的リスク」とはなんでしょうか?

    羽深氏:AIが高精度の結果をアウトプットするがゆえに、社会に歪みをもたらしてしまうリスクです。「ディープフェイク」がその例です。2024年に、香港のグローバル企業の会計担当者が、英国本社のCFO(最高財務責任者)からビデオ会議で指示を受け、約38億円を指定の口座に振り込んだところ、実はそのCFOは生成AIでつくられた偽物(ディープフェイク)であったという詐欺事件がありました。

    西塚:AIの精度が高すぎるがゆえに、普段注意深い人でも騙されてしまうことになったわけですね。

    羽深氏:そうなのです。AIが高精度であっても、そこには技術的なものとはまた別種のリスクがあります。そのほかにも、個人に関するデータをAIで分析することで、趣味や政治的思想、性的嗜好などまで正確に予測されてしまい、プライバシーが侵害されるというリスクもある。AIは、高精度であるがゆえに、社会的な歪みをそこかしこで生み出す可能性が少なからずあるわけです。

    それ以外にも、AIが多くの仕事を代替するようになれば、人の仕事を奪うことにもなるかもしれない。また、機械学習では大量の計算を瞬時に行う必要があるので、サーバーなどの電力を大量消費し、地球温暖化などの環境負荷に加担するリスクなどもあります。

    こうしたリスクを明確にし、最適な対策を講じた上で、「AIがもたらす社会へのメリットをいかにして最大化するか」を考えなくてはならない。そのリスクとメリットのバランスをコントロールするのが、AIガバナンスの基本だと思うのです。NTT Comは、そうしたAIのリスクをコントロールする上で、今どのようなことを実践されているのでしょうか?

    西塚:先ほど述べたように、自社でも他社でもガイドラインの作成は必ず実践し、継続的にブラッシュアップするようにしています。加えて、技術的な対策によるリスクの低減にも力を入れています。

    例えば、NTTグループが開発した大規模言語モデル(LLM)「tsuzumi」の特徴のひとつは「クローズドな環境で動かせる」ことです。ChatGPTのようなオープンなサービスだと、社内の機密情報をもとにプロンプトを入れる際、情報漏洩のリスクに不安を抱える企業が少なくありません。そこで、スケールを目指すのではなく、ある程度、閉ざされた中でのデータを守りつつ、生成AIの機能も担保する形でサービス提供しています。その分、処理計算速度も速い。

    ポジショニングとしては、「データを守りながら、スピーディーに生成AIを使いたい」という、主に国内のお客さま向けに展開しているところです。

    羽深氏:技術的な設計によってセキュリティを守る「バイ・デザイン」の制御はもっとも効果的なAIガバナンス手法のひとつですよね。プライバシーや情報漏洩に関して、かなり高い効果を発揮している例もあります。

    ただ、ローカルにしたからといっても、閉ざされた中でも高精度すぎるAIがもたらす社会的リスクなどまで完全にリスクヘッジできるかといえば、難しさはあるかもしれません。

    西塚:おっしゃる通りで、リスク軽減のためにモデル開発者であるNTT研究所とも協力して取り組んでいるエリアです。ただ、より大きなジレンマなのが、クローズドにして安全性が保たれる半面、利用シーンが狭くなることです。

    日本企業は、どうしても「ゼロリスク」を追い求める気質があります。そのため、例えばtsuzumiの提案もクローズドスタイルの評判が良い面もあるのですが、やはりChatGPTのような大規模化によって性能向上を目指しているモデルと比べれば、精度の部分で見劣りするケースも出てくる。ゼロリスクのAIガバナンスを目指そうとする考え方が、国際的な競争力を失わせているのではないか、という危惧があります。

    羽深さんが最初におっしゃっていた「AIがもたらすリスクを一定程度に収めながら、社会へのメリットをいかにして最大化するか」。そのバランスが、とても難しい。どう考えればいいのでしょうか?

    羽深氏:難しい問題ですよね。まずは「ゼロリスクこそが正義」というマインドセットを変えていくべきです。

    マインドセットと、「責任」の意識を変える。理想的なAI社会実現における企業の役割とは

    羽深氏:リスクをゼロにすることを目標とするならば、一番良い手段は「AIを使わないこと」です。しかし、自動車であれ、原子力発電であれ、人に危害を加えるリスクはあれど、技術的なブラッシュアップや法規制、そして社会倫理などを含めて整備することで、我々はその恩恵を享受できています。

    AIは、そもそも統計と確率で作動するものなので、絶対に安全・安心ということは原理的にあり得ないシステムです。しかし、技術的対処や組織的対処を行っていくことで、そのリスクを限定することは可能ですし、その上でAIのポテンシャルを解き放ったときの社会への便益は計り知れない。だからこそ、「ステークホルダーにとって受容可能な水準にリスクを抑えられた上で、便益を最大化すべきだ」という考えを、社会のコンセンサスとする必要があります。社会全体のマインドセットの問題なので、一朝一夕には難しいと思いますけどね。

    西塚:どういったところから変えるべきなのでしょうか?

    羽深氏:責任のあり方を整理することも重要なポイントだと思います。責任には、大きく分けて、被害者への金銭的な損害賠償を行う民事責任と、違法行為を処罰する刑事責任がありますが、両者をきちんと区別する必要があると思っています。

    民事責任は、損害を受けた人に対して、そのダメージを補償するというもの。AIが起こした事故について、誰かに損害が生じたら、企業はその損害について原則として損害賠償責任を負うべきでしょう。日本の民法は、行為者に過失があったかどうかを問題にしますが、AIはもともと一定の確率で誤りを含むものです。例えば0.1%の確率で事故が起こることが予見できれば過失なし(責任を負わない)、1%の確率で事故が起こることが予見できれば過失あり(責任を負う)、というのはおかしな話です。

    事前に確率がまったく計算できないような特殊な場合を除いて、基本的には起きた事故について事業者が組織として金銭的に賠償すべきです。しかし、これは、事故に関与した人に刑罰を科すべきだ、という話とは異なります。

    西塚:悪意など意図して損害を与えるのではなく、統計と確率で動くAIに原理的に存在するリスクがあるからですね。

    羽深氏:はい。いつどこで事故が起こるかわからないシステムについて、たまたま事故が生じたことをもって刑事罰を科せば、関係者は、不幸な責任のなすりつけ合いや、情報の隠蔽に奔走するでしょう。これは関係者にとっても社会にとっても明らかなマイナスです。

    AIリスクによって生じたすべての案件が刑事責任を問われるようなものになったら、AI活用は一気にブレーキがかかり、イノベーションの活用は進まず、当然、国際競争力も急落するでしょう。刑事罰は、故意に事故を起こしたケースや、調査において情報を隠蔽したり虚偽の報告をしたりした場合には適用を検討すべきですが、避けることのできないAIの事故に適用することには極めて謙抑的であるべきです。

    そうした「制裁メカニズムの正しい設計」も、AIガバナンスのひとつだと思います。その上で「ゼロリスクではAI活用はままならない」というマインドセットが社会に浸透していくのかなと。また、企業としてそうしたAIに対する意識、ガバナンスの考え方をポリシーとして、打ち出すこともリスクテイクの大事な手段ですよね。

    西塚:おっしゃる通りですね。ただ企業目線でいうと、一企業がAIガバナンスを視野に「我々はこのスタイルでリスクテイクする」と打ち出すのは簡単ではありません。何か第三者機関があって、そこのお墨付きを得る、というスタイルのほうがベターにも思えます。例えば、「広島AIプロセス」しかり、内閣府の「AI事業者ガイドライン」、あるいはEUのガイドラインしかり、政府や国際機関がガイドラインを多く発表しています。それらも参考になりそうですよね。

    羽深氏:ただ、それらに目を通していただくとわかるのですが、実はとても抽象度が高いのですね。「リスクマネジメントシステムを実装しなければならない」とか「リスク評価にもとづいて対応すべき」とか。そもそもAIという技術が、発展途上の上、これまでの技術と違い、ものすごいスピードで進化しています。技術もそうだし、使われる場所もそうです。

    つまり、常にルールメイキングの途中であるということなのです。裏返すと、企業が黙って座っていたら、政府や国際機関がガイドラインなどの指標を与えてくれる、という時代ではない。企業がビジョンをしっかり見据えて、AIの活用とガバナンスに関して、正しいと信じたことを実行してよく、むしろそうせざるを得ない時代なのだと感じています。

    西塚:まさに今日の対談で伺えてよかった点です。リスクマネジメントシステムもそうですが、ガイドラインには一朝一夕では実現が困難であろう仕組みが言及されているので、解釈に非常に困っていました。それを解決するためのアプローチは、著書でも指摘されている「アジャイル・ガバナンス※」の発想にもつながりますね。

    羽深氏:そうですね。AIの技術がそうであるように、ガバナンスも一定のシステムをつくって終わりではなく、アジャイルにアップデートし続けることが大切です。

    西塚:なるほど。NTTグループとしても、AIビジネスの提供、AI活用におけるポリシーや情報の発信などを通じて、マインドセットを自分たちから変えることも大いに必要なのだろうなと感じました。

    羽深氏:AIは正解がない世界です。だからこそ、それぞれの企業が、AIを使うことで社会にどんなメリットを与えられるか、そのためにどこまでリスクテイクするか、自分ごととして判断していかなければなりません。それが、便益と国際競争力をもたらし、豊かなAI社会を実現していく舵取りになるのだと思います。

    ※一定のプロセスに従ってAIリスクのマネジメントを行いながら、環境の変化に合わせてそのプロセス自体も継続的にアップデートするAIガバナンスの方法論

    この記事の評価をお聞かせください
    低評価 高評価
    必須項目です。
    この記事の感想があればお聞かせください