論文の概要: Identifying Quantum Structure in AI Language: Evidence for Evolutionary Convergence of Human and Artificial Cognition
- arxiv url: http://arxiv.org/abs/2511.21731v1
- Date: Fri, 21 Nov 2025 08:22:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.181993
- Title: Identifying Quantum Structure in AI Language: Evidence for Evolutionary Convergence of Human and Artificial Cognition
- Title(参考訳): AI言語における量子構造同定:人間の進化的収束と人工認知の証拠
- Authors: Diederik Aerts, Jonito Aerts Arguëlles, Lester Beltran, Suzette Geriente, Roberto Leporini, Massimiliano Sassoli de Bianchi, Sandro Sozzo,
- Abstract要約: 実験対象として,特定言語モデル(LLM)を用いて実施した概念的組み合わせに関する認知テストの結果について述べる。
ChatGPT と Gemini で行った最初の試験ではベルの不等式が著しく違反していることが示され、これはテストされた概念に「量子絡み」が存在することを示している。
また,ChatGPTとGeminiを用いた第2の試験では,大規模テキストに含まれる単語の分布において,直感的に予測される「マクスウェル・ボルツマン統計」よりも「ボース=アインシュタイン統計」の存在が確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the results of cognitive tests on conceptual combinations, performed using specific Large Language Models (LLMs) as test subjects. In the first test, performed with ChatGPT and Gemini, we show that Bell's inequalities are significantly violated, which indicates the presence of 'quantum entanglement' in the tested concepts. In the second test, also performed using ChatGPT and Gemini, we instead identify the presence of 'Bose-Einstein statistics', rather than the intuitively expected 'Maxwell-Boltzmann statistics', in the distribution of the words contained in large-size texts. Interestingly, these findings mirror the results previously obtained in both cognitive tests with human participants and information retrieval tests on large corpora. Taken together, they point to the 'systematic emergence of quantum structures in conceptual-linguistic domains', regardless of whether the cognitive agent is human or artificial. Although LLMs are classified as neural networks for historical reasons, we believe that a more essential form of knowledge organization takes place in the distributive semantic structure of vector spaces built on top of the neural network. It is this meaning-bearing structure that lends itself to a phenomenon of evolutionary convergence between human cognition and language, slowly established through biological evolution, and LLM cognition and language, emerging much more rapidly as a result of self-learning and training. We analyze various aspects and examples that contain evidence supporting the above hypothesis. We also advance a unifying framework that explains the pervasive quantum organization of meaning that we identify.
- Abstract(参考訳): 実験対象として,特定言語モデル(LLM)を用いて実施した概念的組み合わせに関する認知テストの結果について述べる。
ChatGPT と Gemini で行った最初の試験ではベルの不等式が著しく違反していることが示され、これはテストされた概念に「量子絡み」が存在することを示している。
また,ChatGPT と Gemini を用いて行った第2の試験では,大規模テキストに含まれる単語の分布において,直感的に予測される「マクスウェル・ボルツマン統計」よりも「ボース=アインシュタイン統計」の存在を同定した。
興味深いことに、これらの結果は、ヒトの認知テストと大規模コーパスの情報検索テストの両方で得られた結果を反映している。
彼らは、認知エージェントが人間か人工かにかかわらず、「概念言語領域における量子構造の体系的な出現」を指摘する。
LLMは歴史的理由からニューラルネットワークに分類されるが、ニューラルネットワーク上に構築されたベクトル空間の分配的意味構造において、より基本的な知識体系が形成されると考えている。
人間の認知と言語の間の進化的収束の現象を、生物学的進化を通じて徐々に確立し、LLM認知と言語は、自己学習と訓練の結果、より急速に出現する。
上記の仮説を支持する証拠を含む様々な側面や例を分析した。
我々はまた、我々が特定する意味の広範にわたる量子構造を説明する統一的な枠組みも推進している。
関連論文リスト
- Concept-Guided Interpretability via Neural Chunking [64.6429903327095]
ニューラルネットワークは、トレーニングデータの規則性を反映した生の集団活動のパターンを示す。
神経集団レベルで繰り返しチャンクを抽出する3つの方法を提案する。
私たちの研究は、認知原則と自然主義的データの構造の両方を活用する、解釈可能性の新しい方向性を指し示しています。
論文 参考訳(メタデータ) (2025-05-16T13:49:43Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Revealing emergent human-like conceptual representations from language prediction [90.73285317321312]
大規模言語モデル(LLMs)は、人間らしい振る舞いを示すテキストの次のトーケン予測によってのみ訓練される。
これらのモデルでは、概念は人間のものと似ていますか?
LLMは、他の概念に関する文脈的手がかりに関連して、言語記述から柔軟に概念を導出できることがわかった。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - A Percolation Model of Emergence: Analyzing Transformers Trained on a Formal Language [15.929767234646631]
データ、サイズ、計算量の増加は、ニューラルネットワークによる特定の能力の急激な学習につながる可能性がある。
エマージェンス(emergence)とは、しばしば「エマージェンス(emergence)」と呼ばれる現象である。
論文 参考訳(メタデータ) (2024-08-22T17:44:22Z) - Analysis of Argument Structure Constructions in a Deep Recurrent Language Model [0.0]
本稿では,再帰型ニューラルネットワークモデルにおけるArgument Structure Constructions(ASC)の表現と処理について検討する。
その結果, 文表現は, 全層にまたがる4つのASCに対応する異なるクラスタを形成することがわかった。
これは、脳に拘束された比較的単純なリカレントニューラルネットワークでさえ、様々な構成タイプを効果的に区別できることを示している。
論文 参考訳(メタデータ) (2024-08-06T09:27:41Z) - Conceptual structure coheres in human cognition but not in large
language models [7.405352374343134]
概念構造は, 文化, 言語, 推定方法の違いに対して堅牢であることを示す。
結果は、現代の大言語モデルと人間の認知の間に重要な違いを浮き彫りにしている。
論文 参考訳(メタデータ) (2023-04-05T21:27:01Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z) - Emergence of Separable Manifolds in Deep Language Representations [26.002842878797765]
ディープニューラルネットワーク(DNN)は、様々な認知的モダリティをまたいだ知覚的タスクの解決において、非常に経験的な成功を示している。
最近の研究では、タスク最適化DNNから抽出された表現と脳内の神経集団の間にかなりの類似性が報告されている。
DNNは後に、複雑な認知機能の基礎となる計算原理を推論する一般的なモデルクラスとなった。
論文 参考訳(メタデータ) (2020-06-01T17:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。