論文の概要: Spontaneous Spatial Cognition Emerges during Egocentric Video Viewing through Non-invasive BCI
- arxiv url: http://arxiv.org/abs/2507.12417v1
- Date: Wed, 16 Jul 2025 17:07:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.484489
- Title: Spontaneous Spatial Cognition Emerges during Egocentric Video Viewing through Non-invasive BCI
- Title(参考訳): 非侵襲的BCIによる自己中心型映像視聴における空間認知の自然発生
- Authors: Weichen Dai, Yuxuan Huang, Li Zhu, Dongjun Liu, Yu Zhang, Qibin Zhao, Andrzej Cichocki, Fabio Babiloni, Ke Li, Jianyu Qiu, Gangyong Jia, Wanzeng Kong, Qing Wu,
- Abstract要約: 非侵襲的な脳とコンピュータのインタフェースが、自然に細粒度のエゴセントリックな6Dポーズをデコードできることを初めて示す。
脳波の空間分解能の制限と高信号ノイズにもかかわらず、空間的コヒーレントな視覚入力は、陰極性空間表現を確実に引き起こす。
- 参考スコア(独自算出の注目度): 42.53877172400408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans possess a remarkable capacity for spatial cognition, allowing for self-localization even in novel or unfamiliar environments. While hippocampal neurons encoding position and orientation are well documented, the large-scale neural dynamics supporting spatial representation, particularly during naturalistic, passive experience, remain poorly understood. Here, we demonstrate for the first time that non-invasive brain-computer interfaces (BCIs) based on electroencephalography (EEG) can decode spontaneous, fine-grained egocentric 6D pose, comprising three-dimensional position and orientation, during passive viewing of egocentric video. Despite EEG's limited spatial resolution and high signal noise, we find that spatially coherent visual input (i.e., continuous and structured motion) reliably evokes decodable spatial representations, aligning with participants' subjective sense of spatial engagement. Decoding performance further improves when visual input is presented at a frame rate of 100 ms per image, suggesting alignment with intrinsic neural temporal dynamics. Using gradient-based backpropagation through a neural decoding model, we identify distinct EEG channels contributing to position -- and orientation specific -- components, revealing a distributed yet complementary neural encoding scheme. These findings indicate that the brain's spatial systems operate spontaneously and continuously, even under passive conditions, challenging traditional distinctions between active and passive spatial cognition. Our results offer a non-invasive window into the automatic construction of egocentric spatial maps and advance our understanding of how the human mind transforms everyday sensory experience into structured internal representations.
- Abstract(参考訳): 人間は空間認知に顕著な能力を持ち、新しい環境や不慣れな環境でも自己ローカライゼーションが可能である。
位置と向きをコードする海馬ニューロンは十分に文書化されているが、特に自然主義的、受動的経験において、空間的表現をサポートする大規模な神経力学は理解されていない。
本稿では,脳波を用いた非侵襲的脳-コンピュータインタフェース(BCI)が,脳中心ビデオの受動的観察中に3次元の位置と向きを含む自発的,きめ細かな6Dポーズをデコードできることを初めて示す。
脳波の空間分解能の制限と高信号ノイズにもかかわらず、空間的コヒーレントな視覚的入力(連続的および構造化された動き)は、被験者の主観的な空間的エンゲージメントの感覚と整合して、確実に空間的表現を誘発する。
復号性能は、1画像あたり100ミリ秒のフレームレートで視覚入力が提示されるときにさらに向上し、本質的な神経時間力学との整合性が示唆される。
ニューラルネットワークモデルによる勾配に基づくバックプロパゲーションを用いて、位置(位置)と向き(方向)に寄与する異なるEEGチャネルを特定し、分散しているが相補的なニューラルエンコーディングスキームを明らかにする。
これらの結果から、脳の空間系は受動的条件下であっても自然かつ連続的に機能し、能動的空間認知と受動的空間認知の区別に挑戦することが示唆された。
以上の結果から,自己中心型空間地図の自動構築に非侵襲的ウインドウを提供するとともに,人間の心が日常の感覚体験を構造的内部表現に変換する方法についての理解を深めることができた。
関連論文リスト
- Deep Neural Encoder-Decoder Model to Relate fMRI Brain Activity with Naturalistic Stimuli [2.7149743794003913]
そこで本研究では,脳活動のエンコードとデコードを行う,エンド・ツー・エンドのディープ・ニューラル・エンコーダ・デコーダモデルを提案する。
我々はアーキテクチャに時間的畳み込み層を導入し、自然界の刺激とfMRIの時間分解能ギャップを効果的に埋めることを可能にする。
論文 参考訳(メタデータ) (2025-07-16T08:08:48Z) - Embodied World Models Emerge from Navigational Task in Open-Ended Environments [5.785697934050656]
プロシージャ的に生成された平面迷路を解決するために,スパース報酬のみで訓練された反復エージェントが,方向,距離,障害物レイアウトなどの計量概念を自律的に内部化できるかどうかを問う。
トレーニングの後、エージェントは、下層の空間モデルにヒントを与える行動である、見えない迷路において、常に準最適経路を生成する。
論文 参考訳(メタデータ) (2025-04-15T17:35:13Z) - From Eye to Mind: brain2text Decoding Reveals the Neural Mechanisms of Visual Semantic Processing [0.3069335774032178]
自然画像のテキスト記述にfMRI信号を直接デコードすることで、パラダイムシフトを導入する。
視覚的入力なしで訓練された新しいディープラーニングモデルは、最先端のセマンティックデコーディング性能を実現する。
神経解剖学的には、MT+、腹側視皮質、下頭頂皮質などの高次視覚領域が重要な役割を担っている。
論文 参考訳(メタデータ) (2025-03-15T07:28:02Z) - Spherical World-Locking for Audio-Visual Localization in Egocentric Videos [53.658928180166534]
我々は,エゴセントリックなシーン表現のための一般的なフレームワークとして,球状ワールドロックを提案する。
従来の2次元平面場を持つ自己中心表現と比較して、SWLは自動による課題を効果的に相殺する。
シーン表現の球面構造を保存する統一エンコーダデコーダトランスアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-08-09T22:29:04Z) - Discretization of continuous input spaces in the hippocampal autoencoder [0.0]
本研究は,海馬位置細胞と同様の空間的チューニングを,スパルスオートエンコーダニューロンにおける視覚事象の離散記憶の形成により実現可能であることを示す。
実験の結果を聴覚領域に拡張し、経験に依存した方法でニューロンが同様に周波数空間を刺激することを示した。
最後に,これらの疎密で高次元の表現を用いて,強化学習エージェントが様々な空間認知タスクを効果的に実行可能であることを示す。
論文 参考訳(メタデータ) (2024-05-23T14:16:44Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - Egocentric Audio-Visual Object Localization [51.434212424829525]
本研究では,エゴモーションを明示的に処理する時空間アグリゲーションモジュールを提案する。
エゴモーションの効果は、時間的幾何変換を推定し、それを利用して視覚的表現を更新することによって緩和される。
視覚的に指示された音声表現をアンタングルすることで、モーダルな局所化の堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-03-23T17:43:11Z) - Learning What and Where -- Unsupervised Disentangling Location and
Identity Tracking [0.44040106718326594]
教師なしLOCation and Identity Tracking System(Loci)を導入する。
ローチは脳の背腹側経路にインスパイアされ、自己監督された分離機構を用いて、何とどこにも結合する問題に取り組む。
Lociは、より深い説明指向のビデオ処理のステージを設定できる。
論文 参考訳(メタデータ) (2022-05-26T13:30:14Z) - Deep Representations for Time-varying Brain Datasets [4.129225533930966]
本稿では、領域マップされたfMRIシーケンスと構造接続性の両方を入力として組み込んだ効率的なグラフニューラルネットワークモデルを構築する。
サンプルレベルの適応的隣接行列を学習することで、潜伏する脳のダイナミクスのよい表現を見つけ出す。
これらのモジュールは容易に適応でき、神経科学領域以外の用途にも有用である可能性がある。
論文 参考訳(メタデータ) (2022-05-23T21:57:31Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。