論文の概要: Algorithmic Derivation of Human Spatial Navigation Indices From Eye Movement Data
- arxiv url: http://arxiv.org/abs/2501.10696v1
- Date: Sat, 18 Jan 2025 08:26:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:21:12.086525
- Title: Algorithmic Derivation of Human Spatial Navigation Indices From Eye Movement Data
- Title(参考訳): 眼球運動データを用いた人体空間ナビゲーション指標のアルゴリズム的導出
- Authors: Sobhan Teymouri, Fatemeh Alizadehziri, Mobina Zibandehpoor, Mehdi Delrobaei,
- Abstract要約: 本研究は,眼球運動データを用いて人体空間ナビゲーションに関連する指標を抽出するためのアルゴリズム的アプローチである。
提案した研究は、信号処理と機械学習のアプローチを組み合わせて、ナビゲーションとオリエンテーション、空間不安、ランドマーク認識、パスサーベイ、パスルートの指標を開発する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Spatial navigation is a complex cognitive function involving sensory inputs, such as visual, auditory, and proprioceptive information, to understand and move within space. This ability allows humans to create mental maps, navigate through environments, and process directional cues, crucial for exploring new places and finding one's way in unfamiliar surroundings. This study takes an algorithmic approach to extract indices relevant to human spatial navigation using eye movement data. Leveraging electrooculography signals, we analyzed statistical features and applied feature engineering techniques to study eye movements during navigation tasks. The proposed work combines signal processing and machine learning approaches to develop indices for navigation and orientation, spatial anxiety, landmark recognition, path survey, and path route. The analysis yielded five subscore indices with notable accuracy. Among these, the navigation and orientation subscore achieved an R2 score of 0.72, while the landmark recognition subscore attained an R2 score of 0.50. Additionally, statistical features highly correlated with eye movement metrics, including blinks, saccades, and fixations, were identified. The findings of this study can lead to more cognitive assessments and enable early detection of spatial navigation impairments, particularly among individuals at risk of cognitive decline.
- Abstract(参考訳): 空間ナビゲーションは、空間内での理解と移動のための視覚、聴覚、受容情報などの感覚入力を含む複雑な認知機能である。
この能力により、人間はメンタルマップを作成し、環境をナビゲートし、新たな場所を探索し、未知の環境での道を見つけるのに不可欠である方向性の手がかりを処理できる。
本研究は,眼球運動データを用いて人体空間ナビゲーションに関連する指標を抽出するためのアルゴリズム的アプローチである。
電気電図信号を活用することで,統計的特徴を分析し,ナビゲーション作業中の眼球運動の研究に特徴工学的手法を適用した。
提案した研究は、信号処理と機械学習のアプローチを組み合わせて、ナビゲーションとオリエンテーション、空間不安、ランドマーク認識、パスサーベイ、パスルートの指標を開発する。
この分析は、顕著な精度で5つのサブスコア指標を得た。
これらのうち、航法と方位のサブスコアはR2スコアが0.72、ランドマークの認識サブスコアが0.50となった。
さらに, 点眼, サケード, 固定などの眼球運動計測値と高い相関が認められた。
本研究の結果は, 認知低下リスクのある個人において, より認知的評価を導き, 空間ナビゲーション障害の早期発見を可能にする可能性がある。
関連論文リスト
- Feature Estimation of Global Language Processing in EEG Using Attention Maps [5.173821279121835]
本研究は,脳波の特徴推定に新たなアプローチを導入し,深層学習モデルの重みを利用してその関連を探索する。
視覚変換器とEEGNetから生成したアテンションマップは,従来の研究結果と一致した特徴を効果的に同定できることを実証する。
ViTsを用いたMel-Spectrogramの適用により、時間および周波数関連脳波特性の分解能が向上する。
論文 参考訳(メタデータ) (2024-09-27T22:52:31Z) - A Role of Environmental Complexity on Representation Learning in Deep Reinforcement Learning Agents [3.7314353481448337]
我々は、深層強化学習エージェントを訓練するためのシミュレーションナビゲーション環境を開発した。
ショートカットおよびナビゲーションキューへの露出頻度を変調し,異なる能力を有する人工エージェントの開発に繋がった。
これらのエージェントを駆動する人工ニューラルネットワークの符号化表現について検討し、表現学習における複雑なダイナミクスを明らかにした。
論文 参考訳(メタデータ) (2024-07-03T18:27:26Z) - Automated mapping of virtual environments with visual predictive coding [0.9591674293850556]
本稿では,エージェントが視覚的予測コーディングをしながら仮想環境をナビゲートするフレームワークを提案する。
次の画像予測タスクを学習しながら、エージェントは、距離を定量的に反映する環境の内部表現を自動的に構築する。
内部マップにより、エージェントは視覚情報のみを使用してランドマークに対して位置を特定できる。
論文 参考訳(メタデータ) (2023-08-20T22:29:16Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - ST-GIN: An Uncertainty Quantification Approach in Traffic Data
Imputation with Spatio-temporal Graph Attention and Bidirectional Recurrent
United Neural Networks [18.66289473659838]
本稿では、欠落したデータを計算するための革新的な深層学習手法を提案する。
グラフアテンションアーキテクチャを用いて、交通データに存在する空間的相関をキャプチャする。
双方向ニューラルネットワークを用いて時間情報を学習する。
論文 参考訳(メタデータ) (2023-05-10T22:15:40Z) - Emergence of Maps in the Memories of Blind Navigation Agents [68.41901534985575]
動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
論文 参考訳(メタデータ) (2023-01-30T20:09:39Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。