論文の概要: Understanding top-down attention using task-oriented ablation design
- arxiv url: http://arxiv.org/abs/2106.11339v1
- Date: Tue, 8 Jun 2021 21:01:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-27 11:20:11.061712
- Title: Understanding top-down attention using task-oriented ablation design
- Title(参考訳): タスク指向アブレーション設計によるトップダウン注意の理解
- Authors: Freddie Bickford Smith, Brett D Roads, Xiaoliang Luo, Bradley C Love
- Abstract要約: トップダウンの注目により、ニューラルネットワークは、人工的および生物学的の両方において、与えられたタスクに最も関連性の高い情報に集中することができる。
我々は,タスク指向アブレーション設計と呼ばれる一般的なフレームワークに基づく計算実験により,この問題に対処することを目指している。
2つのニューラルネットワークの性能を比較する。
- 参考スコア(独自算出の注目度): 0.22940141855172028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Top-down attention allows neural networks, both artificial and biological, to
focus on the information most relevant for a given task. This is known to
enhance performance in visual perception. But it remains unclear how attention
brings about its perceptual boost, especially when it comes to naturalistic
settings like recognising an object in an everyday scene. What aspects of a
visual task does attention help to deal with? We aim to answer this with a
computational experiment based on a general framework called task-oriented
ablation design. First we define a broad range of visual tasks and identify six
factors that underlie task variability. Then on each task we compare the
performance of two neural networks, one with top-down attention and one
without. These comparisons reveal the task-dependence of attention's perceptual
boost, giving a clearer idea of the role attention plays. Whereas many existing
cognitive accounts link attention to stimulus-level variables, such as visual
clutter and object scale, we find greater explanatory power in system-level
variables that capture the interaction between the model, the distribution of
training data and the task format. This finding suggests a shift in how
attention is studied could be fruitful. We make publicly available our code and
results, along with statistics relevant to ImageNet-based experiments beyond
this one. Our contribution serves to support the development of more human-like
vision models and the design of more informative machine-learning experiments.
- Abstract(参考訳): トップダウンの注目により、ニューラルネットワークは、人工的および生物学的の両方において、与えられたタスクに最も関連性の高い情報に集中することができる。
これは視覚知覚の性能を高めることが知られている。
しかし、特に日常の場面で物体を認識するような自然主義的な設定に関しては、その知覚がどれほどの注意を惹きつけるかは不明だ。
視覚的なタスクのどの側面が注意に役立ちますか?
我々はタスク指向アブレーション設計と呼ばれる汎用フレームワークに基づく計算実験でこの問題に答えることを目指している。
まず、幅広い視覚的タスクを定義し、タスクの多様性を損なう要因を6つ特定する。
そして、各タスクにおいて、2つのニューラルネットワークのパフォーマンスを比較します。
これらの比較は、注意の知覚の促進のタスク依存性を明らかにし、注意が果たす役割のより明確な考え方を与える。
多くの既存の認知アカウントは、視覚的クラッタやオブジェクトスケールのような刺激レベル変数に注意を向けているが、モデル間の相互作用、トレーニングデータの分布、タスクフォーマットをキャプチャするシステムレベルの変数では説明力が大きい。
この発見は、注意の移り変わりが実りあることを示唆している。
私たちは、ImageNetベースの実験に関する統計とともに、コードと結果を公開しています。
私たちの貢献は、より人間的な視覚モデルの開発と、より情報のある機械学習実験の設計を支援するのに役立ちます。
関連論文リスト
- Shifting Focus with HCEye: Exploring the Dynamics of Visual Highlighting and Cognitive Load on User Attention and Saliency Prediction [3.2873782624127834]
本稿では,視覚強調(永続的・動的)と両タスクによる認知負荷が視線行動に及ぼす影響について検討する。
認知負荷の異なる場合、最先端のサリエンシモデルにより、その性能が向上することを示す。
論文 参考訳(メタデータ) (2024-04-22T14:45:30Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - PhD Thesis: Exploring the role of (self-)attention in cognitive and
computer vision architecture [0.0]
トランスフォーマーをベースとした自己アテンションをモデルとして分析し,メモリで拡張する。
本稿では,アクティブビジョン理論に触発された注意と記憶を組み合わせた認知アーキテクチャGAMRを提案する。
論文 参考訳(メタデータ) (2023-06-26T12:40:12Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Attention in Reasoning: Dataset, Analysis, and Modeling [31.3104693230952]
本稿では,タスクの成果につながるプロセスを理解し,改善するために注意を向けたAttention with Reasoning(AiR)フレームワークを提案する。
まず,原子推論操作のシーケンスに基づいて評価基準を定義し,注意度を定量的に測定する。
次に、人間の視線追跡と正当性データを収集し、その推論能力に基づいて、様々な機械および人間の注意機構を解析する。
論文 参考訳(メタデータ) (2022-04-20T20:32:31Z) - Understanding the computational demands underlying visual reasoning [10.308647202215708]
我々は,現代の深層畳み込みニューラルネットワークによる視覚的推論問題の解法を体系的に評価する。
我々の分析は、視覚的推論タスクの新たな分類につながり、主に、その基礎となるルールを構成するために使用される関係の種類と関係の数によって説明できる。
論文 参考訳(メタデータ) (2021-08-08T10:46:53Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Gravitational Models Explain Shifts on Human Visual Attention [80.76475913429357]
視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
論文 参考訳(メタデータ) (2020-09-15T10:12:41Z) - The perceptual boost of visual attention is task-dependent in
naturalistic settings [5.735035463793008]
我々は視覚的なタスクの集合を設計し、それぞれが選択されたタスクセットから画像を分類する。
タスクの性質は、どのカテゴリがタスクセットに含まれるかによって決定される。
各タスクで、注意を増したニューラルネットワークをトレーニングし、その精度をベースラインネットワークと比較します。
本研究では,タスクセットの難易度が増大し,タスクセットのサイズが増大し,タスクセット内での知覚的類似度が増大するにつれて,知覚的注目の高まりが強くなることを示す。
論文 参考訳(メタデータ) (2020-02-22T09:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。