論文の概要: Gravitational Models Explain Shifts on Human Visual Attention
- arxiv url: http://arxiv.org/abs/2009.06963v1
- Date: Tue, 15 Sep 2020 10:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:21:42.253172
- Title: Gravitational Models Explain Shifts on Human Visual Attention
- Title(参考訳): 重力モデルが人間の視覚注意の変化を説明
- Authors: Dario Zanca, Marco Gori, Stefano Melacci, Alessandra Rufa
- Abstract要約: 視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
- 参考スコア(独自算出の注目度): 80.76475913429357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual attention refers to the human brain's ability to select relevant
sensory information for preferential processing, improving performance in
visual and cognitive tasks. It proceeds in two phases. One in which visual
feature maps are acquired and processed in parallel. Another where the
information from these maps is merged in order to select a single location to
be attended for further and more complex computations and reasoning. Its
computational description is challenging, especially if the temporal dynamics
of the process are taken into account. Numerous methods to estimate saliency
have been proposed in the last three decades. They achieve almost perfect
performance in estimating saliency at the pixel level, but the way they
generate shifts in visual attention fully depends on winner-take-all (WTA)
circuitry. WTA is implemented} by the biological hardware in order to select a
location with maximum saliency, towards which to direct overt attention. In
this paper we propose a gravitational model (GRAV) to describe the attentional
shifts. Every single feature acts as an attractor and {the shifts are the
result of the joint effects of the attractors. In the current framework, the
assumption of a single, centralized saliency map is no longer necessary, though
still plausible. Quantitative results on two large image datasets show that
this model predicts shifts more accurately than winner-take-all.
- Abstract(参考訳): 視覚的注意(英: visual attention)とは、視覚的および認知的タスクのパフォーマンスを向上させるために、人間の脳が適切な感覚情報を選択する能力を指す。
2段階に分けて進行する。
視覚的特徴マップが取得され、並列に処理されるもの。
もうひとつは、より複雑な計算と推論のために単一の場所を選択するために、これらのマップからの情報をマージする。
その計算的記述は、特にプロセスの時間的ダイナミクスが考慮されている場合、困難である。
過去30年間に、健康を推定する多くの方法が提案されてきた。
解像度をピクセルレベルで推定する上で、ほぼ完璧な性能を達成するが、視覚的注意のシフトを生成する方法は、入賞者すべて(WTA)回路に依存している。
wtaは生物学的ハードウェアによって実装され、最大塩分濃度の場所を選択でき、その場所が過度な注意を向けられる。
本稿では,注目シフトを記述するための重力モデル(GRAV)を提案する。
すべての特徴がアトラクタとして機能し、そのシフトはアトラクタのジョイント効果の結果である。
現在のフレームワークでは、単一の集中的サルマンシーマップの仮定はもはや必要ではない。
2つの大きな画像データセットの定量的結果は、このモデルが勝者の全てよりも正確にシフトを予測することを示している。
関連論文リスト
- GaitContour: Efficient Gait Recognition based on a Contour-Pose Representation [38.39173742709181]
歩行認識は、外見情報ではなく歩行パターンに基づいて、被験者をしっかりと識別する約束を持っている。
本研究では,身体形状と身体部分情報の両方をコンパクトに表現する,ポイントベースコントゥール・ポース表現を提案する。
さらに、この斬新な表現を活用するために、GaitContourと呼ばれるローカル・グローバル・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-27T17:06:25Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Calculating and Visualizing Counterfactual Feature Importance Values [0.0]
個々の意思決定結果を説明するための潜在的な解決策として、カウンターファクチュアルな説明が急増した。
2つの大きな欠点は,(1) 特徴変化のアイソノミクス的視点,(2) 修正された各特徴が予測にどの程度影響するかを観察できないこと,(2) 反実的説明を可視化するグラフィカルリソースの欠如,の2つに直接的な影響がある。
本稿では,CFI(Conportance Constellation)の値をソリューションとして導入する。
論文 参考訳(メタデータ) (2023-06-10T18:54:15Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - DisenHCN: Disentangled Hypergraph Convolutional Networks for
Spatiotemporal Activity Prediction [53.76601630407521]
本稿では,既存のソリューションのギャップを埋めるために,DistenHCNと呼ばれるハイパーグラフネットワークモデルを提案する。
特に,ユーザの好みと時間的活動の複雑なマッチングをヘテロジニアスなハイパーグラフにまとめる。
次に、ユーザ表現を異なる側面(位置認識、時間認識、活動認識)に切り離し、構築したハイパーグラフ上に対応するアスペクトの特徴を集約する。
論文 参考訳(メタデータ) (2022-08-14T06:51:54Z) - Understanding Character Recognition using Visual Explanations Derived
from the Human Visual System and Deep Networks [6.734853055176694]
深層ニューラルネットワークの情報収集戦略における合同性,あるいはその欠如について検討する。
深層学習モデルは、人間が正しく分類された文字に対して固定した文字の類似した領域を考慮に入れた。
本稿では、視線追跡実験から得られた視覚的固定マップを、モデルが関連する文字領域に焦点を合わせるための監督入力として用いることを提案する。
論文 参考訳(メタデータ) (2021-08-10T10:09:37Z) - Understanding top-down attention using task-oriented ablation design [0.22940141855172028]
トップダウンの注目により、ニューラルネットワークは、人工的および生物学的の両方において、与えられたタスクに最も関連性の高い情報に集中することができる。
我々は,タスク指向アブレーション設計と呼ばれる一般的なフレームワークに基づく計算実験により,この問題に対処することを目指している。
2つのニューラルネットワークの性能を比較する。
論文 参考訳(メタデータ) (2021-06-08T21:01:47Z) - Robust Person Re-Identification through Contextual Mutual Boosting [77.1976737965566]
本研究では,歩行者の局地化を目的としたコンテキスト相互ブースティングネットワーク(CMBN)を提案する。
歩行者をローカライズし、文脈情報と統計的推測を効果的に活用することで特徴を再検討する。
ベンチマークの実験は、最先端のアーキテクチャと比較してアーキテクチャの優位性を示している。
論文 参考訳(メタデータ) (2020-09-16T06:33:35Z) - Leveraging the Self-Transition Probability of Ordinal Pattern Transition
Graph for Transportation Mode Classification [0.0]
本稿では,交通モード分類における自己遷移の確率という,通常のパターン遷移グラフから保持される特徴の利用を提案する。
提案手法は,これらを組み合わせた場合であっても,置換エントロピーや統計的複雑度よりも精度がよい。
論文 参考訳(メタデータ) (2020-07-16T23:25:09Z) - Orientation Attentive Robotic Grasp Synthesis with Augmented Grasp Map
Representation [62.79160608266713]
物体の形態学的特徴は、ロボットの把握の視覚的学習を阻害する、幅広い可視的把握方向を提供する可能性がある。
既存のグリップ生成アプローチを呪い、グリップポイント毎に大きく異なる向きのアノテーションを集約することにより、不連続グリップマップを構築する。
そこで本研究では,角度空間を複数のビンに分割することで,方向を局所的に歪曲する,画素ワイズ合成に適した拡張型グリップマップ表現を提案する。
論文 参考訳(メタデータ) (2020-06-09T08:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。