論文の概要: Internal World Models as Imagination Networks in Cognitive Agents
- arxiv url: http://arxiv.org/abs/2510.04391v1
- Date: Sun, 05 Oct 2025 23:01:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.62434
- Title: Internal World Models as Imagination Networks in Cognitive Agents
- Title(参考訳): 認知エージェントのイマジネーションネットワークとしての内的世界モデル
- Authors: Saurabh Ranjan, Brian Odegaard,
- Abstract要約: 我々は、内的世界モデル(IWM)にアクセスし、心理学的ネットワーク分析を用いて人間と大言語モデル(LLM)のIWMを探索することを提案する。
我々の研究は、人間とAIの内部で生成された表現を比較する新しい方法を提供し、人工知能における人間のような想像力を開発するための洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: What is the computational objective of imagination? While classical interpretations suggest imagination is useful for maximizing rewards, recent findings challenge this view. In this study, we propose that imagination serves to access an internal world model (IWM) and use psychological network analysis to explore IWMs in humans and large language models (LLMs). Specifically, we assessed imagination vividness ratings using two questionnaires and constructed imagination networks from these reports. Imagination networks from human groups showed correlations between different centrality measures, including expected influence, strength, and closeness. However, imagination networks from LLMs showed a lack of clustering and lower correlations between centrality measures under different prompts and conversational memory conditions. Together, these results indicate a lack of similarity between IWMs in human and LLM agents. Overall, our study offers a novel method for comparing internally-generated representations in humans and AI, providing insights for developing human-like imagination in artificial intelligence.
- Abstract(参考訳): 想像の計算目的は何ですか。
古典的な解釈では、イマジネーションは報酬を最大化するのに役立つが、最近の発見はこの見解に異議を唱えている。
本研究では、内的世界モデル(IWM)にアクセスし、心理学的ネットワーク分析を用いて人間や大言語モデル(LLM)のIWMを探索することを提案する。
具体的には,2つのアンケートを用いて想像力評価を行い,これらの結果から想像力ネットワークを構築した。
人間集団のイマジネーションネットワークは、期待される影響、強さ、近接性など、異なる集中度尺度の間に相関関係を示した。
しかし、LLMの想像ネットワークはクラスタリングの欠如と、異なるプロンプト下での集中度対策と会話記憶条件との相関が低かった。
これらの結果は,ヒトとLDMのIWMの類似性の欠如を示唆している。
全体として、我々の研究は、人間とAIの内部で生成された表現を比較するための新しい方法を提供し、人工知能における人間のような想像力を開発するための洞察を提供する。
関連論文リスト
- Bridging the behavior-neural gap: A multimodal AI reveals the brain's geometry of emotion more accurately than human self-reports [18.336392633341493]
大規模な類似性判定は、脳の感情幾何学をより忠実に捉えることができることを示す。
MLLMは、リッチで神経に適応した感情表現を自律的に開発できるという、説得力のある証拠を提供する。
論文 参考訳(メタデータ) (2025-09-29T05:22:33Z) - Don't Forget Imagination! [0.0]
この論文は、人工知能の次の有望なブレークスルーとして、認知的想像力へのさらなる注意を呼び起こすものである。
ニューラルネットワークのように学習し、確率論的因果関係に基づく数学的モデルに対する新しいアプローチであるセマンティックモデルを提案する。
論文 参考訳(メタデータ) (2025-08-08T06:50:43Z) - Embodied AI Agents: Modeling the World [188.85697524284834]
本稿では,視覚的,仮想的,物理的形態を具現化したAIエージェントの研究について述べる。
我々は,世界モデルの開発が,具体的AIエージェントの推論と計画の中心であることを提案する。
また,より優れた人間とエージェントのコラボレーションを実現するために,ユーザのメンタルワールドモデルを学ぶことを提案する。
論文 参考訳(メタデータ) (2025-06-27T16:05:34Z) - How Deep is Love in LLMs' Hearts? Exploring Semantic Size in Human-like Cognition [75.11808682808065]
本研究では,大言語モデル (LLM) が意味的サイズを理解する上で類似した傾向を示すかどうかを検討する。
以上の結果から,マルチモーダルトレーニングはLLMにとって人間的な理解を深める上で不可欠であることが示唆された。
最後に,LLMが実世界のWebショッピングシナリオにおいて,より大きなセマンティックサイズを持つ注目の見出しに影響されているかを検討する。
論文 参考訳(メタデータ) (2025-03-01T03:35:56Z) - Humanlike Cognitive Patterns as Emergent Phenomena in Large Language Models [2.9312156642007294]
我々は、意思決定バイアス、推論、創造性の3つの重要な認知領域にわたって、大規模言語モデルの能力を体系的にレビューする。
意思決定では、LSMはいくつかの人間のようなバイアスを示すが、人間の観察するバイアスは欠落している。
GPT-4のような先進的なLCMは、人間のシステム2思考に似た熟考的推論を示し、小さなモデルは人間レベルの性能に欠ける。
LLMはストーリーテリングのような言語ベースの創造的なタスクに優れているが、現実の文脈を必要とする散発的な思考タスクに苦労する。
論文 参考訳(メタデータ) (2024-12-20T02:26:56Z) - Alien Recombination: Exploring Concept Blends Beyond Human Cognitive Availability in Visual Art [90.8684263806649]
視覚芸術の創造において、AIが人間の認知的限界を超越する方法を示します。
我々の研究は、視覚芸術には膨大な未探索の概念的組み合わせが含まれているという仮説を立てている。
本稿では,人間の認知能力を超えた概念の組み合わせを同定し,生成するエイリアン組換え法を提案する。
論文 参考訳(メタデータ) (2024-11-18T11:55:38Z) - Semiotics Networks Representing Perceptual Inference [0.0]
本稿では,物体の知覚を追跡・シミュレートする計算モデルを提案する。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
論文 参考訳(メタデータ) (2023-10-08T16:05:17Z) - Grounding Psychological Shape Space in Convolutional Neural Networks [0.0]
我々は畳み込みニューラルネットワークを用いて、知覚入力間の一般化可能なマッピングと、最近提案された形状領域の心理学的類似性空間を学習する。
この結果から,分類に基づくマルチタスク学習シナリオが最も優れた結果が得られるが,その性能は類似性空間の次元に比較的敏感であることが示唆された。
論文 参考訳(メタデータ) (2021-11-16T12:21:07Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。