デジタルとアイデンティティの羅針盤
~AIと人間の共存が切り拓く新しい社会像~

本記事は、アミタホールディングス株式会社と学校法人立命館の共催による「不確実な時代の羅針盤シリーズ~価値転換の航路を示す、全6回の知の対話~」第5回の記録です。

登壇者:谷口 忠大(京都大学大学院情報学研究科 教授/立命館大学総合科学技術研究機構客員 教授)
ファシリテーター 兼 講師:熊野 英介(アミタホールディングス株式会社 代表取締役会長 兼 CVO)
司会:山下 範久(学校法人立命館 常務理事)


激動する国際情勢、急速な技術革新、深刻化する環境危機、そして価値観の多様化――。先行きの見えない不確実な時代だからこそ、いま私たちには、既存の価値観や社会構造を見直し、新たな視点で未来を構想するための「問い」と「仮説」、そして深い「思索」と「対話」が必要だと考えます。

第5回のテーマは「デジタルとアイデンティティの羅針盤~AIと人間の共存が切り拓く新しい社会像~」。AIの急速な発展は、人間や社会のあり方に新たな問いを投げかけています。今回は、AIとの共存が切り拓く新しい社会像を模索し、未来のアイデンティティのあり方を見つめ直します。(配信日:20251021日)


目次

記号創発システムと集合的予測符号化が示す、
人間とAIの新しい関係
(谷口氏講義サマリー)

■記号創発システム:言葉はどのように生まれるのか?

谷口氏:人間の言語や規範は、一体どこから生じるのでしょうか?それは、私たちの身体的経験に根ざしています。人間は、身体を通した環境との相互作用のなかで、世界を捉える内的な表現「内的表象」を形成します。私たちは、その内的表象に基づいて他者とコミュニケーションするために、音声や文字などの外的な記号表現を発達させてきました。

例えば、AIに犬と猫を識別させる場合、あらかじめ「犬」「猫」というラベルが付いたデータを多数与えて訓練する必要がありました。つまり、AIが学習するカテゴリは、外部から与えられた訓練データによって規定されます。それに対して人間は、言語を獲得する前の段階でも、視覚や身体的経験にもとづいて、自律的にカテゴリを形成することができます。こうした経験に基づく世界のまとまりの捉え方が、内的表象として育っていきます。

しかし、頭の中で何を考えているかは他人には分からない。そこで人間は、社会の中で他者と理解を共有しあうために「外的表象」を発展させてきました。興味深いのは、記号と対象の結びつきには本来的な必然性がないという点です。つまり、音声や文字といった外的表象は、特定の対象を指すように社会的に合意された結果であって、自然界に普遍的な正解があるわけではありません。英語では "dog"、日本語では「犬」、子どもは「ワンワン」と呼ぶ。どれが正しいかは決まっておらず、社会での合意形成が、特定の表現を「意味を持つ記号」として定着させていきます。一度、共同体の中で記号の使い方が合意形成されると、その規範に従わない表現は意味が通じにくくなります。つまり、記号の共有は、私たちを社会的な規範に従わせる一方で、その規範があるからこそ互いに理解できる。このように、規範による制約と意味の共有が同時に成立する構造が、記号創発システムの重要な特徴です。

■記号創発を数理化する「集合的予測符号化」

谷口氏:私は、言語・記号の使用が社会の中でどのように安定し、どのように更新されていくのかを、より厳密に扱うために「集合的予測符号化(Collective Predictive Coding)」という枠組みを提案しています。この枠組みでは、人間が環境と相互作用する中で形成する世界モデルと関係しています。

世界モデルとは、個体が「世界はどのように成り立っているか」を推測し、次に何が起こるかを予測するための内部的な構造化表現のことです。内的表象の一種と思ってもらっても構いません。人間は、感覚から得られる入力と自分の予測がずれたとき(予測誤差)に、その誤差を最小にする方向へ推論し、世界モデルを少しずつ更新していきます。これが、認知科学で一般的に説明される予測符号化(Predictive Coding) の基本的な考え方です。

しかし実際の人間は、世界を「個別に」学んでいるわけではありません。言語、規範、文化、日常的な対話などを通じて、互いの世界モデルが強く依存し合っています。集合的予測符号化とは、この相互依存した世界モデルの更新プロセスを扱おうとするものです。つまり、一人ひとりが予測誤差にもとづいて世界モデルを更新するだけでなく、他者の語りや行動を通じて社会的に共有された外的表象(記号)も更新され、結果として個人と社会が同時に変化していく。この二重の更新過程を説明するために、集合的予測符号化という枠組みを位置づけています。

従来の多くの確率モデルや統計的学習モデルでは、個々の学習主体は互いに独立して観測を行い、独立に推論するという前提が置かれます。しかし、実際の人間は、言語・文化・規範・日常的な対話といった社会的プロセスを通じて、互いの判断や解釈に強く影響を与えながら環境に適応しています。つまり、人の学習や世界モデルの更新は、社会的な相互依存性を前提としたプロセスとして進みます。

集合的予測符号化は、このような相互依存した推論・学習の構造を数理的に扱うための枠組みであり、個人の予測誤差の更新だけでなく、言語や規範を作り出すことで、人間が行っている、社会的相互作用を通じた世界モデルの調整を含めて理解しようとする試みです。

■視点の転換:主体は人間か、言語か?

谷口氏:これまでの説明では、人間が環境に適応し、世界を学習する主体であると説明してきました。しかし、集合的予測符号化の枠組みで考えると、言語システム自体を学習の主体とみなすことが可能になります。

人間は、社会的規範や言語的慣習に従って行動を方向づけられる一方で、日々の経験・行動・発話を通して、言語システムそのものに新しいデータを提供し、その構造を更新していく存在でもあります。

この視点から見ると、人間は単に言語に「縛られる」のではなく、言語体系が世界を学習し続けるための観測点(センサノード)として機能する側面を持っています。人間が世界と関わることで生じる多様な経験や表現が、共同体の中で共有され、最終的には記号体系そのものを少しずつ変えていきます。

したがって、世界を学習している主体を「個々の人間」と見ることもできますし、社会的に共有された「言語システム」そのものが学習し続けていると捉えることもできます。人間と言語が相互に更新し合う構造こそが、集合的予測符号化の重要な特徴です。

※センサノード...計測データを処理し送信するセンサ搭載デバイスの比喩であり、人間が日々の経験を通じて言語体系にデータを提供する働きを示したもの。

■身体を持たない大規模言語モデルが「世界を理解しているように見える」のは何故か?

谷口氏:AIの大規模言語モデル(Large Language Model)はテキストなどの言語データのみを学習しているにもかかわらず、あたかも身体を備え、世界を理解しているかのように振る舞う事例が報告されています。

なぜ、大規模言語モデルが身体を持たないにもかかわらず、あたかも世界を理解しているように振る舞うのか。私はこれを説明するために、集合的予測符号化仮説(Collective Predictive Coding Hypothesis)というアイデアを提案しています。この仮説では、人間の身体を通した経験や行為のパターンが、長い歴史の中で言語という外的表象のデータ分布に間接的に反映されてきたと考えます。私たちは、感覚運動的な経験を言語表現に置き換え、社会的に共有し、蓄積し続けてきました。その結果、言語データには、人類が身体を通して世界と関わってきた構造的な痕跡が埋め込まれています。

大規模言語モデルは、その膨大な言語データを学習することで、人間が身体経験を通じて形成してきた世界理解の一部を統計的に継承する可能性があります。身体を持たないモデルが擬似的な「世界理解」を示すのは、このデータ分布に内在する人間的構造を学習しているからだと考えられます。

記号創発システムと集合的予測符号化仮説は、言語・認知・社会がどのように相互に影響し合い、更新され続けるのかを説明するための枠組みです。言語は単なる伝達手段ではなく、身体経験、社会規範、共同体内での合意形成が交差する動的な外的表象システムであり、その変化の過程には人間の行為と世界モデルの更新が深く関わっています。この視点は、AIがどのように人間的な振る舞いを獲得しうるのか、そして人間とAIがどのレイヤーで意味を共有し得るのかを考えるうえで、新しい理論的地平を切り開くものだと考えています。

山下氏:谷口先生、ありがとうございました。記号創発システムや集合的予測符号化の背景にある「誰が世界を学習しているのか」という問いを立体的に提示いただきました。人間ではなく、創発する記号システムそのものが主体となり得るという視点は、AIとの共存を考える上で重要な論点だと感じます。

AI共存社会の未来を問う10の視点
(熊野質問サマリー)

山下氏:専門的議論を深めるため、オーディエンスを代表して熊野さんから10の質問をいただきました。

熊野:AIとの共存の解像度を高めるために以下の質問を用意しました。

  • 共存の成功像 :10年後、AIと人間の共存が「成功」と言えるのは何がどう変わった時か?
  • 失敗の予兆 :共存が進む中で、最も懸念される失敗パターンとは?その兆候を早期に把握するには?
  • 意味のズレ :人と人、人とAI(マルチエージェントAI含む)で、同じ言葉を使いながらも意味や意図がずれた時、どのように察知・整合できるか?
  • AI依存の抑制 :過度なAI依存を避けるための行動指標は?
  • 最終決定権 :共存設計で人間が最後に下すべき決定権はどこにあるか?
  • アイデンティティ: AIの普及で個人のアイデンティティは強化されるのか、希薄化するのか?
  • デジタル上の「私」 :デジタル上の自己の所有権は誰にあるのか?本人・企業・共同体などのいずれが主軸になるのか?
  • 価値観・美意識: 集合的予測符号化は、社会の価値観や美意識とどのように関わり合い、影響し合うのか?
  • 仕事の変化 :AIとの共存により不要になる仕事・需要が増える仕事、最も影響を受ける業種・サービスは?
  • 共助と時間 :AIが社会の共助機能を底上げした場合、人間の時間の使い方や生活リズムはどう変化するか?

「ズレ」「揺らぎ」「不自由」から読み解くAI共存社会
(ディスカッションサマリー)

■質問3:意味や意図のズレはどう察知・整合できるか?

山下氏:AI共存時代の象徴的な論点として、質問3「意味のズレ」を取り上げたいと思います。

谷口氏:私が記号創発システムのような対象に興味を持った原点は、子どもの頃に感じた「相手の言葉がわからない。本当にこう思っているのか?自分の言葉も意図どおりに伝わっているのだろうか」というような誰しもが感じる感覚でした。頭の中は覗けないのに、会話は成立してしまう。この素朴な疑問が研究の出発点になりました。

こうした「相手とどのように記号の使い方をすり合わせているのか」という人間のコミュニケーションに対する関心から、私は次第に、記号の調整過程そのものを数理的に扱うモデルの研究へと進むようになりました。とくに、エージェント同士が相互作用を通して記号の使い方を整合させていく名付けゲーム(naming game)の系譜は、記号創発のメカニズムを理解するための有力な枠組みになります。

私は、この名付けゲームの数理モデルを拡張する形で、メトロポリス・ヘイスティングス名付けゲームという独自のモデルを提案してきました。これは、メトロポリス・ヘイスティングス法による確率的更新を取り入れることで、人間同士のコミュニケーションにおける記号の整合がどのように進むのかを明示的に表現したものです。

進化的言語ゲームや記号創発研究の流れを土台としつつ、個々の主体がどのように推論し、記号の使い方を更新していくのかをより精密に扱うために設計したものであり、一般的に存在していたモデルではなく、私自身の研究の中で導入した枠組みです。

メトロポリス・ヘイスティングス名付けゲームを通して私が示したいのは、人間のコミュニケーションが「完全な意味理解」に基づいて成立しているわけではなく、相互の推測と調整のプロセスによって支えられているという点です。日常の会話でも、互いに見えているものや理解の仕方は少しずつ異なります。それでも意思疎通が成り立つのは、相手の発話やふるまい、状況から「いま何を指しているのか」を推測し合い、記号の使い方をその場ごとに調整し続けているからです。

名付けゲームの研究は、この「推測しながら記号の使い方をすり合わせ、整合させていく」というコミュニケーションの本質的構造を数理的に表そうとする試みです。この意味で、人間同士のコミュニケーションは、深く共有された意味があらかじめ存在するというよりも、調整と更新によって意味を共有している部分が大きいと考えています。そして、AIとのやり取りにおいても、根底には同じ「相手の出力から推測し、意味を調整していく」構造が働いている点が重要だと思います。

山下氏:いまのお話で印象的だったのは、コミュニケーションが「与えられた意味の共有」ではなく、「相手の出力を手がかりに意味を調整していくプロセス」で成立しているという点です。つまり、私たちは常に文脈を参照しながら、相手が何を指し示しているのかを推論し続けている。

ここで重要になるのが、文脈そのものが単一ではなく、複数のレイヤーで構造化されているという視点です。外的状況としての文脈、対話の流れとしての文脈、当事者間で共有されている前提としての文脈。これらが相互に作用しながら意味の調整が行われる。

こうした文脈の多層構造を前提にすると、集合的予測符号化は文脈を単なる「場」ではなく、認知や社会が立ち上がるための構造的要因として扱っていると言えます。文脈が揺らぐことで、価値観や意味づけそのものが更新されていく。この視点は非常に示唆的です。

■質問8:集合的予測符号化と価値観・美意識の関係

山下氏:続いて質問8「集合的予測符号化は価値観や美意識とどう関わるか」について伺います。文脈の構造をどのように捉えるかは、価値観や美意識が社会の中でどのように形成されるのかという問題とも直結しているように思えるのですが、いかがでしょうか?

谷口氏:集合的予測符号化は、社会が共有する外的表象と、個々人の身体経験に基づく内的表象がせめぎ合う構造を扱う理論です。価値観や美意識は人により異なるため、社会の価値と個人の経験から起こる感性の間には必ずギャップが生まれます。外的表象と身体経験が相互調整される中で、美意識は静的ではなく動的に形成されていきます。美学との本格的統合には議論の余地がありますが、集合的予測符号化はその構造を説明し得る枠組みになると考えています。

山下氏:熊野さんは、これまで循環型社会の設計において「美意識」が羅針盤になると繰り返し述べてこられました。今の谷口先生のお話は、その考え方とも響き合うように感じます。

熊野:おっしゃるとおりです。社会が形成する美意識と、個人の身体から湧き上がる美意識は常に衝突し、影響を与え合います。歴史を見ても、江戸の「粋(いき)」、上方の「粋(すい)」といった華やかな文化が流行したかと思えば、刺激に飽きた人々が「侘び寂び」に価値を見いだすこともあります。また逆に、静けさへの傾倒から再び華やかな美へ戻ることも起こり得ます。

このように複数の美がせめぎ合う中で、「本当はこちらが良いのでは」という相互作用が生まれます。この往復運動こそが、社会の美意識と個人の美意識の共通言語を形成していくのだと思います。

どれか一つが正しいということではなく、膨らんだり、萎んだりするような「呼吸のダイナミズム」が価値を生みます。数値化された損得計算だけでは捉えきれない、「どうせなら良いほうを選びたい」というような揺らぎを許容する感性こそが、資源制約の時代における持続性の鍵になると考えています。近代社会が美意識を固定化してきたことこそ、現代の閉塞感を生んでいるのではないでしょうか。

山下氏:なるほど。ありがとうございます。

■質問6:AIの普及で個人のアイデンティティは強化されるのか、希薄化するのか?

山下氏:次に、質問6「AI普及によるアイデンティティの変化」について伺います。

谷口氏:活版印刷が近代の「個」の形成に影響したように、生成AIも個のあり方を変える可能性があります。ただし、強まる・弱まるのような一方向ではなく、AIとの関わり方によって、さまざまなタイプの「個」が並存する未来が考えられます。

熊野:確かに、現在の「個」は「選ばされる自由」に閉じてしまっているように見えます。AIが平均的な選択肢を提示し続け、人が無意識のうちに均質化してしまう可能性を危惧しています。

山下氏:自由という概念の再定義が必要なのかもしれませんね。

谷口氏:重要なのは、言語という社会的枠組みに依存する限り、人間は本質的に不自由だという点です。ただし、「他者と分かり合うための不自由」と「制度や市場によって押し付けられる不自由」は区別する必要があると思います。前者は記号創発システムがもたらす不自由であり、後者は市場メカニズムがもたらす不自由かと思います。

■質問10:AIが共助機能を底上げした場合、人間の時間の使い方はどう変わるか?

山下氏:次に、質問10「AIが共助機能を強化した場合の時間の使い方」について伺います。

谷口氏:AI技術は非常に早く進化しますが、人間の身体感覚や社会制度の変化速度はそのスピードに追いつけない状況です。今後は、人間の時間スケールに合わせてAIの運用速度を調整する視点が必要かもしれません。

熊野:現代社会は効率や専門性が優先され、部分最適に偏りがちです。AIが共助機能を高めれば、重複コストの削減や意思決定の高速化が進み、人間の時間を「無形価値の創出」へ振り分けられるようになるはずです。経済的合理性より上位に「社会的合理性」を置く仕組みをAIで設計できれば、関係性や学びを基盤とした社会に近づくと考えています。

山下氏:どの時間スケールを基準にし、どの合理性を優先するか──これはAI共存社会の根幹に関わる視点だと感じます。AI技術に翻弄されるのではなく、人間がどのレイヤーで社会を設計し直すのかという主体的な選択こそ、最大のテーマだと思います。

Q&Aセッションサマリー

■Q1:子どもへの影響はどうなるのか?

山下氏:最初の質問は「AI時代に、子どもの成長プロセスはどうなるのか?」というものです。赤ちゃんから成長する人間の脆弱性を考えると、創発的な学びの過程に大きな影響を与えかねない重要な問いだと思いますが、いかがでしょうか。

谷口氏:重要なのは、AIそのもの以前にAIを運ぶ媒体であるスマホやSNSが既に強い影響を及ぼしている点です。例えば、家庭内でも子どもが食事中にスマホだけを見るなど、同じ空間を共有できない状況が生まれています。AIへの不安の多くは、この延長線上にあるものだと感じています。

一方で、AIが感情に影響をあたえ、場合によっては支えになるケースもあります。GPT-4oの提供終了に反対した「#keep4o運動()」は象徴的でした。ユーザーがAIに人格的な愛着を抱き、「自分の大切な相手を奪われた」と感じて行動した世界的現象です。AIが人の心理や関係性に深く入り込んでいることを示す事例だと思います。

※#keep4o運動...OpenAIが旧モデルである GPT‑4o の提供終了を発表したことを受け、利用者がGPT-4o継続利用を求めたSNSムーブメント

熊野:AIが知識領域で専門家を上回り始めるなか、現代の大人は「知識を超えた価値」を子どもに示せているのか、という課題があります。もし大人が知識を超えた価値創出の姿を見せられなければ、子どもにとって大人の存在意義が揺らぎかねません。

さらに、現代社会では子どもが「集合知をつくる経験」を得にくくなっています。かつての共同作業や地域コミュニティが希薄化したことで、創発的な学びの場が減っているように感じます。

谷口氏:重要なのは「技術を恐れること」ではなく「どう乗りこなすか」だと考えています。現在は、誰もが多様なデジタルコンテンツにアクセスし、SNSを通じて発信することもできます。SNSの普及によって人々が意見を発信しやすくなった一方で、分極化や情報の偏りも深刻な課題です。一方で、AIが公共的な議論を補助する可能性もあります。デジタル・デモクラシーという言葉もありますが、AIを良い形で民主主義の基盤にしていく制度設計も重要でしょう。

山下氏:こうしたデジタル環境を踏まえると、子どもの成長を考えるうえで、AI時代にふさわしい成長プロセスを、私たち自身が選び直す必要があると感じます。

■Q2:AIは人間社会の「ゆがみ」まで学習してしまうのか?

山下氏:次は「AIが人間社会のネガティブな側面まで学習してしまうのではないか。その際どう対処すべきか」という質問です。AI、特に大規模言語モデルは、人間の膨大な文章を学習して成長します。そのため、コミュニケーションの質やネガティブな言動、偏りも取り込んでしまう可能性があるのではないか、という懸念だと思います。

谷口氏:現在のAIは人間が作成したデータを基に学習しています。つまりAIが何を「摂取」するかは最終的に人間次第です。そこで重要なのが「AIアライメント」と言われる、AIを人間の倫理や価値観に整合させる追加学習の仕組みです。これが不十分だと、社会への負の影響が大きくなるため、倫理観の組み込みはAI研究で極めて重要な領域です。

熊野:ネガティブなデータをAIが吸収することは避けられないでしょう。しかし問題は「AIがどう判断するか」ではなく、「人間が何を善とし、どの価値を優先するか」を設計できているかどうかです。技術は道具にすぎません。人間側の判断軸が曖昧であれば、AIの成長方向も曖昧なままになります。

山下氏:つまり、AI側の倫理を問う以前に、人間社会の価値基盤そのものをどう再設計するかが問われているということですね。

■Q3:AIのパーソナライズ化が進むとすれば、「個」はどう変わるのか?

山下氏:最後の質問は「AIのパーソナライズ化と共生関係」です。AIが常に個人に合わせて応答する存在になる中で、人間がAIに適応する、いわば「人間のAI化」が起こる可能性はあるのでしょうか?

谷口氏:AIがパーソナライズ化しても、人間の「個」が固定化されるとは限りません。本来、人間の個性は揺らぎを前提としており、環境・関係性・経験によって絶えず変化します。この揺らぎを理解しないまま個別最適に依存すると、むしろ自分の幅を狭める可能性があります。

興味深いのは、人間がAIを「他者」として扱い始めている点です。ユーザーがAIに合わせて振る舞う一方で、その期待値が対人関係にも転写され、「AIは即答できるのに、なぜあなたはできないのか」という比較が生まれる恐れがあります。これは人間同士の関係性に歪みをもたらしかねません。

山下氏:熊野さんは経営者として、すでに組織の中で人間とAIの協働が始まっている場面をご覧になっていると思います。その変化をどう見ていますか。

熊野:AIの導入により、組織では仮説検証の速度が格段に向上しています。メタプロンプトを活用することで意思決定が高速化し、会社全体の反応速度が向上しています。日本企業は長年「正解探し」に時間を費やし、意思決定の遅さが課題でした。しかしAIを組織の仕組みに組み込めば、このボトルネックを解消できる可能性があります。

山下氏:本日の議論を通じて、AIは単なるツールではなく「個のあり方」をも変えていく存在であることが再確認できました。その可能性をどのように社会へ組み込むかが、未来を左右する分岐点になると感じます。

vol5_ss.jpg
【左から山下氏、熊野、谷口氏】