論文の概要: A Deep Learning Model of Mental Rotation Informed by Interactive VR Experiments
- arxiv url: http://arxiv.org/abs/2512.13517v1
- Date: Mon, 15 Dec 2025 16:43:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.761592
- Title: A Deep Learning Model of Mental Rotation Informed by Interactive VR Experiments
- Title(参考訳): 対話型VR実験による心的回転の深層学習モデル
- Authors: Raymond Khazoum, Daniela Fernandes, Aleksandr Krylov, Qin Li, Stephane Deny,
- Abstract要約: 心的回転は、人間の心的シミュレーションと空間的世界モデリングの基本的な例である。
本研究では,深層・同変・ニューロシンボリック学習の進歩を生かした,人間の心的回転の力学モデルを提案する。
私たちのモデルは、私たちや他の実験参加者のパフォーマンス、反応時間、振る舞いをよく捉えています。
- 参考スコア(独自算出の注目度): 36.264146096690375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mental rotation -- the ability to compare objects seen from different viewpoints -- is a fundamental example of mental simulation and spatial world modelling in humans. Here we propose a mechanistic model of human mental rotation, leveraging advances in deep, equivariant, and neuro-symbolic learning. Our model consists of three stacked components: (1) an equivariant neural encoder, taking images as input and producing 3D spatial representations of objects, (2) a neuro-symbolic object encoder, deriving symbolic descriptions of objects from these spatial representations, and (3) a neural decision agent, comparing these symbolic descriptions to prescribe rotation simulations in 3D latent space via a recurrent pathway. Our model design is guided by the abundant experimental literature on mental rotation, which we complemented with experiments in VR where participants could at times manipulate the objects to compare, providing us with additional insights into the cognitive process of mental rotation. Our model captures well the performance, response times and behavior of participants in our and others' experiments. The necessity of each model component is shown through systematic ablations. Our work adds to a recent collection of deep neural models of human spatial reasoning, further demonstrating the potency of integrating deep, equivariant, and symbolic representations to model the human mind.
- Abstract(参考訳): 異なる視点から見る物体を比較する能力である心的回転は、人間の心的シミュレーションと空間的世界モデリングの基本的な例である。
本稿では,深層・同変・ニューロシンボリック学習の進歩を生かした,人間の心的回転の力学モデルを提案する。
本モデルでは, オブジェクトの3次元空間表現を入力として取得し生成する同変型ニューラルエンコーダ, オブジェクトのシンボル記述をこれらの空間表現から導出するニューラルシンボリックオブジェクトエンコーダ, および, これらのシンボル記述を比較して3次元潜時空間の回転シミュレーションを再現するニューラル決定エージェントからなる。
私たちのモデルデザインは、メンタルローテーションに関する豊富な実験文献によって導かれ、参加者が時折比較対象を操作できるVRの実験を補完することで、メンタルローテーションの認知過程に関するさらなる洞察を与えてくれました。
私たちのモデルは、私たちや他の実験参加者のパフォーマンス、反応時間、振る舞いをよく捉えています。
各モデルコンポーネントの必要性は、体系的な改善を通じて示されます。
我々の研究は、人間の空間的推論に関する最近のディープニューラルネットワークのコレクションを追加し、人間の心をモデル化するためにディープ、同変、象徴的な表現を統合する能力をさらに実証した。
関連論文リスト
- Brain3D: Generating 3D Objects from fMRI [78.46936519561298]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Exploring The Spatial Reasoning Ability of Neural Models in Human IQ
Tests [19.338539583910023]
我々は,空間的推論に注目し,ニューラルモデルの空間的理解を探究する。
さまざまな複雑性レベルからなるデータセットを構築しました。
モデルの一般化能力に影響を与える結果と要因について分析する。
論文 参考訳(メタデータ) (2020-04-11T09:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。