論文の概要: Sensorimotor features of self-awareness in multimodal large language models
- arxiv url: http://arxiv.org/abs/2505.19237v1
- Date: Sun, 25 May 2025 17:26:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.995789
- Title: Sensorimotor features of self-awareness in multimodal large language models
- Title(参考訳): マルチモーダル大言語モデルにおける自己認識の知覚的特徴
- Authors: Iñaki Dellibarda Varela, Pablo Romero-Sorozabal, Diego Torricelli, Gabriel Delgado-Oleas, Jose Ignacio Serrano, Maria Dolores del Castillo Sobrino, Eduardo Rocon, Manuel Cebrian,
- Abstract要約: 自己認識は知的で自律的な行動を支える。
近年のAIの進歩は、マルチモーダル情報を統合するタスクにおいて、人間のようなパフォーマンスを実現する。
我々は,マルチモーダルLLMが感覚運動経験のみで自己認識できるかどうかを考察する。
- 参考スコア(独自算出の注目度): 0.18415777204665024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-awareness - the ability to distinguish oneself from the surrounding environment - underpins intelligent, autonomous behavior. Recent advances in AI achieve human-like performance in tasks integrating multimodal information, particularly in large language models, raising interest in the embodiment capabilities of AI agents on nonhuman platforms such as robots. Here, we explore whether multimodal LLMs can develop self-awareness solely through sensorimotor experiences. By integrating a multimodal LLM into an autonomous mobile robot, we test its ability to achieve this capacity. We find that the system exhibits robust environmental awareness, self-recognition and predictive awareness, allowing it to infer its robotic nature and motion characteristics. Structural equation modeling reveals how sensory integration influences distinct dimensions of self-awareness and its coordination with past-present memory, as well as the hierarchical internal associations that drive self-identification. Ablation tests of sensory inputs identify critical modalities for each dimension, demonstrate compensatory interactions among sensors and confirm the essential role of structured and episodic memory in coherent reasoning. These findings demonstrate that, given appropriate sensory information about the world and itself, multimodal LLMs exhibit emergent self-awareness, opening the door to artificial embodied cognitive systems.
- Abstract(参考訳): 自己認識(Self-Awareness) - 周囲の環境から自分自身を識別する能力。
近年のAIの進歩は、多モーダル情報の統合、特に大規模言語モデルにおけるタスクにおける人間のようなパフォーマンスを実現し、ロボットのような非人間プラットフォーム上でAIエージェントの実施能力への関心を高めている。
本稿では,マルチモーダル LLM が感覚運動経験のみで自己認識できるかどうかを考察する。
マルチモーダルLEMを自律移動ロボットに統合することにより、この能力を実現する能力をテストする。
このシステムは, 環境認識, 自己認識, 予測認識に優れており, ロボットの性質や運動特性を推定することができる。
構造方程式モデリングは、感覚統合が自己認識の異なる次元と過去の記憶との協調にどのように影響するかを明らかにし、また自己識別を促進する階層的な内部関係も示している。
感覚入力のアブレーションテストは、各次元の臨界モードを特定し、センサー間の補償相互作用を示し、コヒーレント推論における構造化記憶とエピソード記憶の本質的役割を確認する。
これらの結果から、世界とそれ自身に関する適切な感覚情報から、マルチモーダルLLMは創発的な自己認識を示し、人工体化認知システムへの扉を開くことが明らかとなった。
関連論文リスト
- Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [58.58177409853298]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - Emergence of Self-Awareness in Artificial Systems: A Minimalist Three-Layer Approach to Artificial Consciousness [0.0]
本稿では,自己認識の出現に着目した,人工意識のための最小限の3層モデルを提案する。
脳複製アプローチとは異なり、本質的な要素のみを通して最小限の自己認識を実現することを目的としている。
論文 参考訳(メタデータ) (2025-02-04T10:06:25Z) - Imperative Learning: A Self-supervised Neuro-Symbolic Learning Framework for Robot Autonomy [31.818923556912495]
我々は,ロボット自律のための自己教師型ニューロシンボリック(NeSy)計算フレームワーク,インペラティブラーニング(IL)を導入する。
ILを2段階最適化(BLO)として定式化し、3つのモジュール間の相互学習を可能にする。
ILはロボットの自律性を大幅に向上させ、多様な領域にわたるさらなる研究を促進することを期待している。
論文 参考訳(メタデータ) (2024-06-23T12:02:17Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。