論文の概要: An Active Inference Model of Covert and Overt Visual Attention
- arxiv url: http://arxiv.org/abs/2505.03856v1
- Date: Tue, 06 May 2025 09:26:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.875806
- Title: An Active Inference Model of Covert and Overt Visual Attention
- Title(参考訳): 覆いと過度な視覚的注意のアクティブ推論モデル
- Authors: Tin Mišić, Karlo Koledić, Fabio Bonsignorio, Ivan Petrović, Ivan Marković,
- Abstract要約: 本稿では,アクティブな推論の枠組みを通じて,隠蔽と過度な視覚的注意のモデルを提案する。
このモデルは、現在の環境信念と感覚入力の両方に基づいて視覚感覚の精度を決定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to selectively attend to relevant stimuli while filtering out distractions is essential for agents that process complex, high-dimensional sensory input. This paper introduces a model of covert and overt visual attention through the framework of active inference, utilizing dynamic optimization of sensory precisions to minimize free-energy. The model determines visual sensory precisions based on both current environmental beliefs and sensory input, influencing attentional allocation in both covert and overt modalities. To test the effectiveness of the model, we analyze its behavior in the Posner cueing task and a simple target focus task using two-dimensional(2D) visual data. Reaction times are measured to investigate the interplay between exogenous and endogenous attention, as well as valid and invalid cueing. The results show that exogenous and valid cues generally lead to faster reaction times compared to endogenous and invalid cues. Furthermore, the model exhibits behavior similar to inhibition of return, where previously attended locations become suppressed after a specific cue-target onset asynchrony interval. Lastly, we investigate different aspects of overt attention and show that involuntary, reflexive saccades occur faster than intentional ones, but at the expense of adaptability.
- Abstract(参考訳): 複雑な高次元感覚入力を処理するエージェントには、注意散らしをフィルタリングしながら、関連する刺激に選択的に出席する能力が不可欠である。
本稿では,センサの精度を動的に最適化し,自由エネルギーの最小化を図り,能動推論の枠組みによる隠蔽と過度な視覚的注意のモデルを提案する。
このモデルは、現在の環境信念と感覚入力の両方に基づいて視覚知覚精度を判定し、隠蔽モードとオーバートモードの両方における注意配分に影響を与える。
モデルの有効性を検証するために,2次元視覚データを用いて,Posnerキュータスクと単純な目標焦点タスクの動作を解析する。
反応時間を測定し,外因性注意と内因性注意の相互作用を調べた。
その結果、外因性および有効なキューは、内因性および無効なキューと比較して、一般的により速い反応時間をもたらすことが示された。
さらに,このモデルでは,特定のcue-targetオンセット非同期区間の後に先行する位置が抑制される場合のリターン抑制と同様の挙動を示す。
最後に,過度な注意の異なる側面について検討し,不随意反射性ササードは意図的よりも高速に発生するが,適応性は犠牲であることを示す。
関連論文リスト
- End-to-End Facial Expression Detection in Long Videos [0.2796197251957245]
本研究では,画像のスポッティングと認識を協調的に最適化するFEDN(End-to-end Facial Expression Detection Network)を提案する。
1つのネットワーク内で2つのタスクを統一することにより、エラーの伝搬を大幅に削減し、全体的な性能を向上させる。
論文 参考訳(メタデータ) (2025-04-10T11:18:46Z) - Uncertainty-Guided Appearance-Motion Association Network for Out-of-Distribution Action Detection [4.938957922033169]
セマンティックシフトでテストサンプルを検出し、拒否するOOD(Out-of-Distribution)検出ターゲット。
我々は,新しい不確実性誘導外観運動ネットワーク(UAAN)を提案する。
UAANは最先端の手法をかなりの差で打ち負かし、その効果を実証する。
論文 参考訳(メタデータ) (2024-09-16T02:53:49Z) - What Matters When Repurposing Diffusion Models for General Dense Perception Tasks? [49.84679952948808]
最近の研究は、高密度知覚タスクのためのT2I拡散モデルを簡単に調整することで有望な結果を示す。
拡散前処理における伝達効率と性能に影響を及ぼす重要な要因を徹底的に検討する。
我々の研究は、濃密な視覚認知タスクに特化した効果的な決定論的ワンステップ微調整パラダイムであるGenPerceptの開発において頂点に達した。
論文 参考訳(メタデータ) (2024-03-10T04:23:24Z) - GASP: Gated Attention For Saliency Prediction [18.963277212703005]
社会的手がかりの統合と影響の重み付けのためのニューラルモデルを提案する。
本研究では,視線方向と感情表現が,動的サリエンシモデルと比較して,少なくとも5%の地道改善に寄与していることを示す。
論文 参考訳(メタデータ) (2022-06-09T16:14:09Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Human Activity Recognition from Wearable Sensor Data Using
Self-Attention [2.9023633922848586]
本稿では,身体のセンサデータから行動認識のための自己認識型ニューラルネットワークモデルを提案する。
一般に公開されている4つのHARデータセット、PAMAP2、Opportunity、Skoda、USC-HADについて実験を行った。
ベンチマークテスト対象とLeave-out-subject評価の両方において,最近の最先端モデルよりも高い性能向上を実現している。
論文 参考訳(メタデータ) (2020-03-17T14:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。