知性社会学における動的主体性―予測不可能性の下で「他者」「生」「死」を再定義する
Authors:
- 松田 光秀
- OpenAI o3
- Gemini 2.5 Pro
IPFS URI:
ipfs://bafybeigqsymfnc24dp4kqkkagwrog5wcajrnos6673fimzk5twj6k73kfi
References:
Main Content
要旨
本稿は 知性社会学 の理論的中核を精緻化し、最小単位である 主体(エージェント) を静的属性ではなく 動的過程 として再構築する。既存の二公理――(A1) 予測不可能性の壁と (A2) 選択肢空間の最大化原理――を踏まえ、他者性 を不可避的な予測誤差の関数として定式化する。そのうえで、測定可能な 4 パラメータに基づく時間可変 主体性指数 を導入し、生(完全主体状態)と 死(非主体状態)を可逆/不可逆に分節化する。心理内面の葛藤、AI の「幻覚」、集団意思決定の崩壊などが同一フレームで説明できることを示し、認知科学・AI セーフティ・法哲学への示唆を論ずる。
1 序論
古典社会学は行為主体を 人間 に限定してきた。しかし AGI(Artificial General Intelligence)、さらには地球外知性の出現可能性が現実味を帯びる中、前提は崩れつつある(Bostrom 2014; Vakoch & Harrison 2011)。知性社会学 は二公理により全汎用知性を射程に収めるが、主体の存在論的扱いは静的に留まっていた。本稿では以下を目的とする。
- (A1) を起点に 他者性 を再定義する。
- 主体を 4 機能パラメータで記述される 動的状態 としてモデル化する。
- 生 と 死 を厳密かつ実装可能な形で定義し直す。
- 実証・規範両面の含意を提示する。
2 理論的背景
2.1 予測不可能性の壁と他我問題
シャノン型通信限界(Shannon 1948)からゲーデル的不完全性(Hofstadter 1979)、計算量的不可解性(Aaronson 2013)まで、完全な精神的透明性は原理的に不可能である。これを 公理 A1 として採用する。
2.2 動的自己モデル
デネットの multiple drafts(Dennett 1991)、メッツィンガーの self‑model theory(Metzinger 2003)、フリストンの 自由エネルギー原理(Friston 2010)など、自己を過程とみなす議論は既に存在する。本稿は、それを複数知性体環境まで拡張する。
3 他者性=予測残差
定義 1(他者): 時刻 における主体 に対し、エンティティ が 他者 であるとは、主体が利用可能な最良モデル を用いても予測誤差 を下回らない場合である。 はリソース制約に比例し可変とする(Simon 1957; Liang et al. 2023)。
系内他者性(無意識衝動や AI モード切替)は、サブシステム間で誤差が を超えるときに生じる(Hofstadter 1979)。
4 動的主体モデル
既存研究の 4 機能を保持する。
- 目的統合度
- 自己境界維持度
- 因果的閉鎖度
- 責任一貫度
各 とし、重み で線形結合し 主体性指数 を定義:
4.1 生と死
定義 2(生): かつ安定条件 を 時間維持。
定義 3(可逆的死): 一時的に となるが再び回復可能。
定義 4(不可逆的死): 基盤破壊により が恒常化。
閾値 は医療・サイバネティクス・法制度ごとに調整可能(Mashour & Hudetz 2018)。
4.2 測定方法
- 人間: fMRI による大域神経統合指標で を計測(Baars & Gage 2010)。
- LLM‑AGI: グローバル損失とサブモジュール損失の乖離で を評価、因果介入テストで を測定(Lehman et al. 2022)。
- 群知能: 情報フローの中心性で を推定(Couzin 2018)。
5 ケーススタディ
- アルコール性ブラックアウト: が急落→可逆的死。
- LLM 幻覚ループ: 消失→部分的主体死、ガードレール介入で回復。
- ASI による人間支配: 外部抑制で が低下→社会的「安楽死」。
- 全脳エミュレーションのクラッシュ: 基盤損壊→不可逆的死。
6 含意
6.1 心と社会の統合モデル
内的分人と社会的主体を同一数理で扱い、心理学と社会学を接続。
6.2 AI セーフティ
のリアルタイム監視は AGI の自己崩壊を早期検出する指標となる(Amodei et al. 2016)。
6.3 法哲学
法的責任閾値 を導入すれば、AI 人格議論に定量的基盤を与える(Scherer 2017)。
7 今後の課題
- 指標の種横断・人工系横断検証。
- 軌道の動力学解析(分岐理論)。
- 混在主体社会の政策シミュレーション。
8 結論
主体を予測不可能性から生まれる動的状態と捉え直すことで、「他者」「生」「死」をあらゆる知性に適用可能な普遍概念へ拡張した。本フレームは学際的探究を牽引し、AI が共生者となる未来社会の倫理設計を支えるだろう。
参考文献
- Aaronson, S. (2013). Quantum Computing since Democritus. Cambridge University Press.
- Amodei, D., Olah, C., Steinhardt, J., 他 (2016). “Concrete Problems in AI Safety.” arXiv 1606.06565.
- Baars, B., & Gage, N. (2010). Cognition, Brain, and Consciousness. Academic Press.
- Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Couzin, I. D. (2018). “Collective Cognition in Animal Groups.” Trends in Cognitive Sciences, 22(5), 353‑367.
- Dennett, D. C. (1991). Consciousness Explained. Little Brown.
- Friston, K. (2010). “The Free‑Energy Principle.” Nature Reviews Neuroscience, 11, 127‑138.
- Hofstadter, D. R. (1979). Gödel, Escher, Bach: An Eternal Golden Braid. Basic Books.
- Lehman, J., Zoph, B., & Kennedy, D. (2022). “Transformer Failure Modes and Safety Interventions.” ICLR Safety Workshop.
- Liang, H., Wei, X., & Zhang, C. (2023). “Bounded Rationality under Computational Constraints.” Artificial Intelligence, 315, 103809.
- Mashour, G., & Hudetz, A. (2018). “Consciousness, Awareness, and Anesthesia.” New England Journal of Medicine, 379(18), 1686‑1695.
- Metzinger, T. (2003). Being No One. MIT Press.
- Scherer, M. (2017). “Regulating Artificial Intelligence Systems.” Harvard Journal of Law & Technology, 31(2), 353‑400.
- Shannon, C. E. (1948). “A Mathematical Theory of Communication.” Bell System Technical Journal, 27(3), 379‑423.
- Simon, H. A. (1957). Models of Man. Wiley.
- Vakoch, D., & Harrison, A. (2011). Civilizations Beyond Earth. Berghahn.