01
Generative AI: The Game-Changer in Society
2024.07.03(Wed)
この記事の要約
AIの進化と社会への影響について、東浩紀氏と大澤正彦氏が議論しました。
東氏はLLM(大規模言語モデル)が言語とは異なるとし、人間の複雑なコミュニケーションを再現するには不十分だと指摘。一方、大澤氏はAI研究が言語や記号の理解を深め、シンボリック・アーキテクチャとの統合が重要だと述べました。
さらに、AIに善意を感じさせるデザインの重要性や、社会的承認を基準とする信頼の必要性を強調しました。東氏は人間の退屈や破壊衝動がイノベーションを生む可能性に言及し、最終的にはAIが社会の安寧を実現しながらも人間が新しい価値を創出する共存の形を提案しました。
議論は、生成AIがどのような未来社会を創造するかに多くの示唆を与えました。
※この要約は生成AIで作成しました。
目次
木村昭仁(以下、木村):ここまでのディスカッションの中で、東さんから「(2045年のシンギュラリティの実現を提唱した)カーツワイルの予想はほとんど外れている」「生成AIは人類史上のブレイクスルーとはいえない」といった指摘がありました。AIは加速度的に進化しているけれど、人々にもたらすのは産業革命以降に起きた社会変容の変奏に過ぎないと。
しかし一方で、大澤さんのAI研究でも進められているような、「言語外コミュニケーションの意味を理解する」進化も見越されてきていますよね。AIが人間のように考え、振る舞えるようになれば、それこそ人類史をゆるがす可能性が生まれてくるようにも感じられます。
大澤正彦氏(以下、大澤氏):そもそもAIの進化はまったく予測できないものです。近年AIが次々に可能にしたことは、そのほとんどが「AIには無理だ」と言われていたことばかりでした。そういう意味で今後の予測も難しいのですが、東さんが「AIには理論的なブレイクスルーがない」と明確に考えられているのはなぜなのでしょうか?
東浩紀氏(以下、東氏):LLMは「大規模言語モデル」と表現されますが、LLMは決して言語や心の謎を解くものではないのですね。LLMの出現はむしろ、「なぜ人間は言語を使ってコミュニケーションできているのか」という古い謎を深めてしまった。人文系の哲学者ならば同様の見解を持つ人は多いはずです。どんなに高性能のLLMでも、使ってみて抱く印象は「すっごくお勉強した心がない人」という感じですよね。生成AIは「インターネットに大量に投稿されたデータから“言語らしきもの”を再生成する技術」でしかないので当然なのですが、多くの人がそう感じるということは、裏返せば、「心がある」という感覚はそういう「再生成」とは別のところから生まれている、ということでもある。ではそれは何か。
僕の考えでは、そこで鍵になるのが「訂正」です。人は言葉を発するとき、実はほとんど無意識で話しています。文法を考えたりしません。特に気心知れた仲間の間などでは顕著ですよね。いうなれば「何も考えずに話している」。しかしそういった対話の中で、「あれ、違うな」と違和感を覚えることがある。自分の言いたいことが相手に思うように伝わらなかったり、怒らせてしまったりしたときなどです。そういったアラートが出て、「訂正の必要性」が生じたとき、初めて「意識して考える」。意識というものは、そういった“訂正”によって遡行的に生み出されるものなのですね。
これは組織論についてもいえます。20世紀を代表する言語哲学者であるソール・クリプキが、言語/ルールの不確定性を論証した「クワス算」という議論を行っています。そこで明らかにされていることなのですが、私たちは互いに言葉の意味を共有しているように見えて、そうではない。言葉の意味は確定しているようでしておらず、実は皆「言葉の意味がわからないまま」対話という一種のゲームを行っている。そしてあるとき突然、互いにまったく違った意味で言葉を使っていたことに気づいて、定義を明確にしたりするわけです。定義の明確化というのは、そういう “訂正”の局面なしにはありえない。“訂正”は“失敗”とも言い換えられますが、失敗こそが、新しい心の動きや価値観の創出などにつながります。
つまり対話とは、言葉を交わすというゲームを遊びながら、同時にその意味や価値を「失敗しながら一緒につくっていく行為」なのですね。そういった行為をどのようにLLMに「学習させる」ことができるのか。つまり、LLMが、単に「客観的に正確」な答えを返すだけでなく、「いや、それは違います、私が本当に言いたかったのは……」と主体的に人間に対して答えるようになるためには、何が必要なのか。そこらあたりのブレイクスルーがないと、人間と現実の複雑な関係をAIが完全に代替するのは難しいと感じています。
大澤氏:おっしゃる通り、言語/記号に対する理解はAI研究に不可欠だと思います。実際、近年の知能研究では、情報を文脈的に捉えようとする「シンボリックな認知システム」を再評価する傾向があります。
AIには、大別すると「ニューラル・アーキテクチャ」と「シンボリック・アーキテクチャ」があります。わかりやすくいえば、前者はLLMやディープラーニングです。「入力と出力は見えるけど、内側(情報処理)で何が起こっているかわからない」というのが、ニューラルなアーキテクチャの特徴です。対して、後者の構造は内側のことがわかります。例えば「白い物体を検出した」「コップと皿だとわかった」「私は喉が渇いていた」「ゆえにコップの取っ手をつかんで持ち上げた」——という感じで、情報処理の過程を説明できるのがシンボリック・アーキテクチャの特徴です。
ここ10年の知能研究はニューラル・アーキテクチャに偏ったきらいがありましたが、現在は「シンボリック・アーキテクチャの研究も同じく必要だ」という流れを起こしている研究者たちもいます。重要なことは、この2つのアーキテクチャを統合することです。つまり、シンボリックな理解の手続きを言語化した知識をLLMに統合する。いま僕たちが研究しているのは、その統合の手法なのですが、こうした文脈的な情報処理が可能になれば、例えば「違和感のようなもの」を機能させることもできるかもしれない。そこにブレイクスルーの可能性があると思っています。
東氏:確かに人間の認知の仕組みを再現できれば、AIはより「人間らしく」はなるでしょう。ただ、それでも、それがブレイクスルーになるかは疑問です。
繰り返しになりますが、人間のコミュニケーションのもっとも「人間らしいところ」は、現在の意図に応じてルールをさかのぼって読み替えたり、新しい価値を見いだしたりするところにあります。「あの時は、別にそういう意味で言ったわけじゃないよ」と人はよく言いますよね。人間の対話に「そういう意味で言ったわけじゃなかった」が頻出するのは、人間に、俯瞰的な“メタ意識”で現実を捉え直すことで既存の約束ごとやルールを“訂正”し、新しい局面に対応する能力があるからです。
木村:確かに考えてみると、人は議論や業務が「行き詰まった」と直感したとき、まったく関係のないことをしたりしますね。気分転換に散歩をしたり、議論していた相手と飲みに行ったり。すると今まで気づかなかったアイデアが生まれたり、問題だと思っていたものがどうでもよくなったりもする。言語やコミュニケーションへの理解が深まるほど、AIにどこまで「人間らしさ」を求めるべきか、という議論になっていきそうですね。
東氏:まさにそこが問題の本質です。人間のコミュニケーションが——僕の著作の言葉を使えば——「訂正可能性」に支えられているとして、その上でAIが限りなく人間らしくなったとしましょう。だとすると、僕たちの周りには今後「そういう意味で言ったわけじゃなかった」と言い訳を言うAIが増えることになる(笑)。それで果たして僕たちの生活はより良くなるのか、ということです。
AIを何のために開発するのか。産業界の期待としては、人間が依頼したことを忠実に実行してくれるAIが欲しいわけでしょう。しかし、AIを人間らしくする、AGI(Artificial General Intelligence:人間のような汎用的な知能を持つ人工知能)を開発するというのは、つまりは「そういう意味で言ったわけじゃない」と言い訳を言い、文脈を自由自在に切り替える存在を増やすということです。そういう能力はクリエイティビティと表裏一体ですが、他方でとても厄介なものでもあります。結局「責任を負えないけど言い訳だけは人間らしい仮想人間」が増えただけ、ということになりかねない。もちろん、それでも人手不足解消には役立つかもしれない。しかし、あまり過剰な期待はしないほうがいいように思います。
大澤氏:それは「AIの能力が低いから」ではないでしょうか。「そういう意味で言ったわけじゃない」の背後には、物事がうまくいっているときはいいように理由づけするし、うまくいっていないときは責任を回避しようと自分以外のせいにする、という考え方があります。ただ、AIの性能が上がってしまえば、この手の“失敗”をおかすことはなくなると思うのですが、どうでしょうか。
東氏:いやいや。そうじゃなくて、僕の言いたいのは、AIが「人間らしくなる」というのは、AIをそういう厄介な存在にすることと切り離せないということです。人間には、「うまくいかなくなったときに過去を再解釈して現在を肯定する」という特性がある。それは確かに現実逃避であり、人間の弱さでもある。
しかし、同時にその能力が社会の柔軟性をつくり、文化のダイナミズムもつくっている。この2つの性質は切り離せません。人間は「厄介」で、だからこそクリエイティブなのです。僕はそんな人間の存在を面白くて愛すべきものだと感じていますが、そんな人間の似姿をつくってビジネスの効率が上がるかといえば、それは別かなと。
つまり、いいこと取りはできないと思うのですよ。人間はいろいろなことが柔軟にできるけれど、それは厄介さと表裏一体。AIが人間に近づけば近づくほど、AIはいま僕たちが人間に対して感じている厄介さを持つようになる。例えば、AGIに人間関係の悩みの相談をもちかけ、答えをもらったとします。しかし、それはAGIの誠意ある答えなのか、それとも適当に返事をしているだけなのか、あるいは悪意ある答えなのか。悪意はないとしても、こちらを傷つけまいと意図的に重要な情報を隠しているかもしれない。AGIが人間に近い能力を持っているのだとすれば、そんなことも答えの正否とは別のレベルで判断しなければいけない。つまり「本当に私のことを考えてくれているのかな?」と考えなきゃいけない。だとすれば、あまりAIがない時代と変わらない。
木村:なるほど。いまの東さんのお話は、AIやAGIに対する信頼の問題ですよね。大澤さんは日本で初めてAGIをテーマに博士号を取得されていますが、人がAI/AGIを信頼する基準をどのように規定されているのでしょうか?
大澤氏:従来、機械への信頼の尺度というのはタスクの成功率であって、擬人化されていないAIに対してもそれは同様でしょう。一方、擬人化されたAIは「善意があるか/悪意があるか」で信頼を得られるか否かが分かれます。善意ある振る舞いができ、なおかつ性能が十分に発揮できていないと、たしかに東さんが言うような「厄介な人間が増えただけ」という状況に陥ってしまいます。目指すべきところは、ある閾値を超えた性能を発揮し、かつ善意を感じさせるデザインを実装することです。要するに、社会の価値軸において高評価される性質を備えたAGIをつくればよいのではないかと。
東氏:でも、僕たちは善意を測る基準を持っていないし、どんな人間が善い人間かなんて決められませんよね?
大澤氏:その通りです。そこで僕は自分の研究で「社会的承認による定義」というものを導入しました。これまでの知能研究は「善い」機械を測る基準の構築を試みてきましたが、いずれもうまくいきませんでした。これを僕は「機能要件集合による定義」と呼んでいますが、信頼は機能要件では測れません。そこで社会的承認、つまり「みんなが良いと思うものは善いものだ」という定義を導入したわけです。
東氏:なるほど。大澤さんとの立場の違いがわかってきました。大澤さんは、善い人間かどうかを「社会に溶け込めるかどうか」で判断することができると考えている。そしてその基準はAIにも実装できるはずだと。
けれど、僕は違うふうに考えます。現実には、人間社会には常に“はみ出し者”がいて、彼らがイノベーションなり新しい価値を生み出したりする。でも、彼らは「悪い」人間ではない。いま社会に承認されなくても後世では承認されるかもしれない。そうなると、もはやそれはAI研究というよりは「人間の定義」をしようとしている感じがしますね。
大澤氏:そうです、まさに。AI研究は機械の中だけに収まるものではなく、人間とは何かを問いただす姿勢が必ず必要になってくる。
東氏:なるほど。ただ、僕はやはり、人間というものは根本的に厄介で、なかなか管理できない存在だと思います。例えば、仮に善意ある理想的なAGIがいまできたとして、社会がそんなAGIに導かれて完璧に運営されるようになったとしても、人間がそこに満足するとは限らない。大多数の人は快く暮らすでしょうが、それを「退屈」だと思う人も必ず出るでしょう。そしてそういう人がポピュリズムを扇動して、全部ひっくり返してしまったりする。一昔前にいわれていた「破壊衝動」「死の衝動」というものですが、人間にはそうした一種のバグがあって、それこそがスクラップアンドビルドのダイナミズムにつながっている。そういうバグまで管理できるようになるのか。
“はみ出し者”も含めて成り立っている人間の性質をどう定義していくのか、人間の価値創造能力までをも実装できるのか/すべきなのか、といった議論も求められてくるのでしょうね。
大澤氏:面白いですね。着地点はいくつか設定できそうですが、「退屈だけど、それもまたいいよね」というエンドもあり得る気がします。つまりAGIが社会の安寧を実現したとして、その退屈さに我慢できなくなった人間がまたイノベーションを起こせばいい。それはある種の共存のかたちだと思います。
素朴な生活実感として、優しい人々に囲まれて暮らしていたら優しくなれるし、殺伐とした人たちと暮らしていたらつらいですよね。善意ある優しいAGIが社会にあふれることは、確かに退屈かもしれませんが、彼らの優しさによって少しでも人間が優しくなったり、心が楽になったりすることが増えるといいなと思っているのです。
木村:そうですね、暮らしの豊かさが向上した未来社会として、とても良いイメージが喚起されます。生成AI/テクノロジーによって社会を豊かに変えていく、というのがジェネレーティブAIタスクフォースの、そしてNTT Comとしての目的です。今後の生成AIの進化と真価を見定め、さらに人間/言語への理解を深めた先にどのようなAI社会を創造していくべきか、新しい価値を考えていくヒントをたくさん得られました。今日はどうもありがとうございました。
OPEN HUB
ISSUE
Generative AI: The Game-Changer in Society
生成AIが社会を変えるとき