論文の概要: Beyond Individuals: Collective Predictive Coding for Memory, Attention, and the Emergence of Language
- arxiv url: http://arxiv.org/abs/2508.15859v1
- Date: Wed, 20 Aug 2025 13:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.12773
- Title: Beyond Individuals: Collective Predictive Coding for Memory, Attention, and the Emergence of Language
- Title(参考訳): 個人を超えて: 記憶、注意、および言語の創発のための集団予測コーディング
- Authors: Tadahiro Taniguchi,
- Abstract要約: 言語は集合的に形成された外部表現として機能する、という仮説的考え方を導入する。
これは、言語構造を共有し、次の単語予測によって学習された集合世界モデルをどのように受け入れるか、グループレベルの認識を創出し形作るか、という新しい視点を提供する。
- 参考スコア(独自算出の注目度): 10.169759525075792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This commentary extends the discussion by Parr et al. on memory and attention beyond individual cognitive systems. From the perspective of the Collective Predictive Coding (CPC) hypothesis -- a framework for understanding these faculties and the emergence of language at the group level -- we introduce a hypothetical idea: that language, with its embedded distributional semantics, serves as a collectively formed external representation. CPC generalises the concepts of individual memory and attention to the collective level. This offers a new perspective on how shared linguistic structures, which may embrace collective world models learned through next-word prediction, emerge from and shape group-level cognition.
- Abstract(参考訳): この注釈書は、個人認知システムを超えた記憶と注意に関するParrらによる議論を拡張している。
集団予測符号化(CPC)仮説(これらの能力を理解するための枠組みとグループレベルでの言語の出現)の観点から、我々は、言語が、その埋め込み分布意味論と共に、集合的に形成された外部表現として機能する、という仮説的考えを導入する。
CPCは個々の記憶の概念を一般化し、集団レベルに注意を向ける。
これは、言語構造を共有し、次の単語予測によって学習された集合世界モデルをどのように受け入れるか、グループレベルの認識を創出し形作るか、という新しい視点を提供する。
関連論文リスト
- Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Generative Emergent Communication: Large Language Model is a Collective World Model [11.224401802231707]
LLM(Large Language Models)は、広範囲の世界の知識を捉える素晴らしい能力を示している。
本研究では,集合的世界モデル仮説を導入することによって,新たな理論解を提案する。
論文 参考訳(メタデータ) (2024-12-31T02:23:10Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。