「独り言」:AIはコペルニクスを越えられるのか?

2025/3/15 NHKアニメ「チ。~地球の運動について~」の第25話(最終話)の放送が終わりました。
地動説を題材にしたアニメですが、内容は非常に哲学的な話、生き方の話だったのだと感慨深いものでした。
「チ。~地球の運動について~」ロスになりそうですが、2025年4月から毎週<2枠>で再放送決定が行われます。
Eテレ
毎週土曜 よる9時15分 <4/5スタート>
毎週水曜 午前0時 ※火曜深夜 <4/9スタート>
※放送予定は変更になる可能性があります
このアニメのタイトルにある、「~地球の運動について~」は、まさに地動説のこと。
コペルニクスの著書である、「『天球の回転について』にて提唱された、地動説へ人々がかかわった話として、歴史に残っていない事を、フィクションとして漫画で描いているものです。そして、アニメ化されたというものです。
今日の独り言は、アニメの話ではなく、コペルニクスの発見という、地動説のような、転置がひっくり返るような発想を、AIがすることができるのだろうか?
そんな疑問が頭をよぎったので、少し考えてみました。
最近、AIで試していること
今までは、プログラムの開発に、AIを使い新しい分野のアプリも比較的短期間に作れるようになりました。
知らないことも、Google検索で調べるというより、ChatGPTやCopilotなどの支援を受けながら調査を行い、実際のコード作成や、テスト用のデータなどの作成もできるので、開発の一部として利用価値を実感していました。
最近、地域コミュニティに係ることも少しずつ増えてきて、今までの経緯を知らない人が、そういう活動に参加をするとき、今までどういうことを行っていたとか、どういう状況にあるとか、それらの情報を得ることの難しさを感じています。
そこで、知りえた公開されている情報を、整理、課題抽出、対策案の提示など、人手で行うのは、結構手間のかかることなのですが、AIを使い効率的にできるだろうと思い、試しにやってみました。
やはり、そういう整理やプランの作成では、対話AIは結構いい感じに結果を作成してくれます。
こういうIT技術を気軽に使っていくことに、私は抵抗を感じませんが、日常でつかったことがなければ、それは何?
という素朴な疑問もわいてくるのでしょう。
実際、私も、対話AIは使いますが、その仕組みというか、理屈がわかっているわけでもないです。
結果を信じ切らずに、結果が受け入れられるかは、自分で判断するものとして扱っています。
その仕組みについて、AIは、こちらの問を理解していると思えてしまう答えをくれますが、実際には、人間のような理解というものではないような話もききます。
この点、しっくりこない自分自身もいることは確かです。
そこで、「質問を理解しているように答える仕組み」を対話AIに聞いてみました。
少し、自分でもわかった気になれたように思うので、「独り言」に書いてみます。
AIへの問…
あなたは、最新のLLMに詳しいエキスパートです。
LLMについてのいくつかの疑問に答えてください。
LLMは、多くの情報を学習したモデルを使い、利用者からの対話に対して応答を返す形で提供されているものが多くあります。例えば、ChatGPTもそうです。
この利用者からの質問への答えとして応答を返す場合、単なる質問であれば、学習した情報に近い情報を生成すればよいと思います。
しかし、特定の情報を読込ませ、その情報を整理するような要求に対しても、しれなりに情報を整理しているように見える応答を返します。
与えた情報を整理するということは、情報の整理する何らかのロジックを、LLMのモデルは持っているのではないかと思ってしまいます。情報の整合度合の検出と、整理は異質な作業に見えます。
さらに、整理した情報から、課題の抽出や、対策の提案を求めると、それに合致している応答を返してくれます。
このようなことがなぜ、起こるのかを、LLMの仕組みに熟知していない人でもわかるように説明してください。
AIの回答…
LLM(大規模言語モデル)は、単に学習した情報を再現するだけでなく、まるで「情報を整理し、課題を抽出し、対策を提案している」かのような振る舞いをしますね。
なぜそんなことができるのかを、できるだけわかりやすく説明してみます。
なぜそんなことができるのかを、できるだけわかりやすく説明してみます。
1. LLMは「次の単語」を予測しているだけ?
LLMの基本的な動作は、「入力(質問や情報)を受け取り、それに続く最適な単語の並びを予測する」というものです。
これを聞くと、「それなら、情報整理や課題の抽出なんてできないのでは?」と思うかもしれません。
しかし、「次の単語の予測」には、実は高度なパターン認識が必要です。
たとえば、
- 「リンゴは赤いです。」→「では、バナナの色は?」
- 「水は100℃で沸騰する。」→「では、氷の融点は?」
このような文脈を理解するには、単なる言葉の並びだけでなく、「知識の関係性」も学習する必要があります。
2. LLMは「情報のパターン」を学習している
LLMは、大量の文章(Wikipedia、論文、ニュース記事、Q&Aなど)を学習しているため、
- 「どんな情報が、どんな形で整理されることが多いか」
- 「ある分野では、どんな問題がよく出てくるか」
- 「ある問題には、どんな解決策が提示されることが多いか」
といった 「情報のパターン」 を学習しています。
例えば、ニュース記事では
👉「事実」→「影響」→「見解」→「今後の予測」
という流れが多いので、LLMも同じような流れを再現しやすくなります。
また、学術論文では
👉「問題提起」→「背景」→「検証」→「結論」
というパターンがあるため、LLMが「課題の抽出」や「対策の提案」もそれっぽく行えるわけです。
3. 「情報の整理」も「学習した文章のパターン」から行われる
LLMが「情報を整理する」ように見えるのは、
「過去に学習した情報の中に、似たような情報整理のパターンがあるから」です。
たとえば、あなたが
「以下の内容を整理してください」
とLLMに頼むと、LLMは「学習した情報の中で似たタスクを見つけ、その構造に沿って出力する」という仕組みで動きます。
- 表形式でまとめられることが多い情報なら、表っぽく整理しようとする
- 時系列があるデータなら、時系列の流れで整理しようとする
- 原因と結果がはっきりしている情報なら、「問題 → 原因 → 影響 → 対策」のように整理する
これは、LLMが情報整理の「ルール」を持っているわけではなく、「学習した中でよく使われた整理方法」を統計的に再現している結果です。
4. 「課題の抽出」や「対策の提案」ができるのは?
LLMが「課題を抽出し、対策を提案する」ように見えるのは、
「過去の文章で、似たような問題に対して行われた議論や結論を学習しているから」です。
例えば、
「企業の売上が下がっている」という問題があった場合、LLMは
- 「売上が下がる原因としてよく挙げられるものは?」
- 「過去の事例では、どう対処されたか?」
- 「解決策としてよく提示されるものは?」
といった情報の関連パターンを参照しながら、もっとも自然な形で応答を生成します。
これは「新しく考えている」のではなく、「統計的にもっとも妥当なものを選んでいる」だけですが、結果的に「適切な対策を提案している」ように見えるわけです。
まとめ
✔ LLMは「次の単語の予測」をしているだけだが、それが「情報の整理」「課題の抽出」「対策の提案」につながる
✔ 過去に学習した文章の中で、情報整理や問題解決のパターンがたくさんあるため、それを再現している
✔ LLMは「ルール」を持っているのではなく、学習データから「自然な流れ」を見つけて再現している
こうした仕組みにより、まるでLLMが「論理的に情報を整理し、問題を考え、解決策を提示している」ように見えるわけです。
でも、実際には 過去の文章の中で「よくあるパターン」を再現している だけなのです。
このように考えると、LLMが得意なことと苦手なことが見えてきますね!
最後に…
地域コミュニティの活動にも、対話AIを使い、状況を整理したり、活動のアイデアを創ったりできそうです。
特に、「アイデア出し」において、人が作らない事が、最も有益なことに思えます。
直接、顔の見える狭いコミュニティに置いて、〇〇さんが提案したアイデアを、公然と批判もできませんし、複数の選択肢から最善を選ぶ場合でも、複数の選択肢を作るのも手間です。
このような時に、人ではなく、AIが提示したアイデアなら、アイデアを拒否しても、人間関係的には全く問題にならないように思います。
さらに、地域コミュニティが行うアクションが、それほど斬新である必要もなく、万人が受け入れられそうなこと、それはつまり、社会の集合知の中から生み出されるアクションで十分に思います。
であるなら、ITを使っていない人達こそ、その利便性を最大限享受できる対象なのかもしれないということです。
そこで、最後の疑問です。
社会の集合知としてのAIは、人間が気付いていないことに気づくことはあっても、コペルニクス的と呼ばれるような、発見がしないのかもしれません。
もちろん、地動説は、コペルニクスが文献にまとめていますが、「チ。~地球の運動について~」の話にあるような、その前に気づいている人がいて、色々なことがつながって、そこに至ったのかもしれません。
さて、AIはこれかの世界にどういう影響をあたえるのでしょうか。