論文の概要: Improving Robot Localisation by Ignoring Visual Distraction
- arxiv url: http://arxiv.org/abs/2107.11857v1
- Date: Sun, 25 Jul 2021 17:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 15:54:05.230468
- Title: Improving Robot Localisation by Ignoring Visual Distraction
- Title(参考訳): 視覚障害を無視するロボットの局所化
- Authors: Oscar Mendez, Matthew Vowels, Richard Bowden
- Abstract要約: 我々はニューラル・ブラインドネスを導入し、エージェントは邪魔者と見なされるオブジェクトやクラスを完全に無視することができる。
より明確に言えば、ニューラルネットワークが潜在空間内で特定の選択されたクラスを表現できないようにすることを目指している。
非常に現実的な意味で、これはネットワークを特定のクラスに"盲目"させ、与えられたタスクにとって重要なものに集中させ、それがローカライゼーションを改善するためにどのように使用できるかを実証する。
- 参考スコア(独自算出の注目度): 34.8860186009308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attention is an important component of modern deep learning. However, less
emphasis has been put on its inverse: ignoring distraction. Our daily lives
require us to explicitly avoid giving attention to salient visual features that
confound the task we are trying to accomplish. This visual prioritisation
allows us to concentrate on important tasks while ignoring visual distractors.
In this work, we introduce Neural Blindness, which gives an agent the ability
to completely ignore objects or classes that are deemed distractors. More
explicitly, we aim to render a neural network completely incapable of
representing specific chosen classes in its latent space. In a very real sense,
this makes the network "blind" to certain classes, allowing and agent to focus
on what is important for a given task, and demonstrates how this can be used to
improve localisation.
- Abstract(参考訳): 注意は現代のディープラーニングの重要な要素である。
しかし、その逆についてあまり強調されていない。
日々の生活では、達成しようとしているタスクを混乱させるような、健全な視覚的特徴への注意を明示的に避ける必要があります。
この視覚的な優先順位付けは、視覚障害を無視しながら重要なタスクに集中できる。
そこで本研究では,ニューラルブラインドネス(neural blindness)を導入し,エージェントが不注意と考えられるオブジェクトやクラスを完全に無視する能力を与える。
より明確には、ニューラルネットワークが潜在空間内で特定の選択されたクラスを完全に表現できないようにすることを目指している。
非常に現実的な意味で、これはネットワークを特定のクラスに"盲目"させ、与えられたタスクにとって重要なものに集中させ、それがローカライゼーションを改善するためにどのように使用できるかを示す。
関連論文リスト
- On the Surprising Effectiveness of Attention Transfer for Vision Transformers [118.83572030360843]
従来の知恵は、事前学習型視覚変換器(ViT)が有用な表現を学習することで、下流のパフォーマンスを向上させることを示唆している。
予備学習で学んだ特徴や表現は必須ではない。
論文 参考訳(メタデータ) (2024-11-14T18:59:40Z) - Visual Attention Network [90.0753726786985]
本稿では,自己アテンションにおける自己適応性および長距離相関を実現するために,新しいカーネルアテンション(LKA)モジュールを提案する。
また、LKAに基づく新しいニューラルネットワーク、すなわちVisual Attention Network (VAN)を導入する。
VANは、最先端のビジョントランスフォーマーと畳み込みニューラルネットワークを、広範な実験において大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-02-20T06:35:18Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - Understanding top-down attention using task-oriented ablation design [0.22940141855172028]
トップダウンの注目により、ニューラルネットワークは、人工的および生物学的の両方において、与えられたタスクに最も関連性の高い情報に集中することができる。
我々は,タスク指向アブレーション設計と呼ばれる一般的なフレームワークに基づく計算実験により,この問題に対処することを目指している。
2つのニューラルネットワークの性能を比較する。
論文 参考訳(メタデータ) (2021-06-08T21:01:47Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z) - Neuroevolution of Self-Interpretable Agents [11.171154483167514]
不注意の盲目は、普通の視界で物事を見逃す心理的現象である。
選択的な注意を払って,自己注意ボトルネックのレンズを通して世界を知覚する人工エージェントの特性について検討した。
論文 参考訳(メタデータ) (2020-03-18T11:40:35Z) - The perceptual boost of visual attention is task-dependent in
naturalistic settings [5.735035463793008]
我々は視覚的なタスクの集合を設計し、それぞれが選択されたタスクセットから画像を分類する。
タスクの性質は、どのカテゴリがタスクセットに含まれるかによって決定される。
各タスクで、注意を増したニューラルネットワークをトレーニングし、その精度をベースラインネットワークと比較します。
本研究では,タスクセットの難易度が増大し,タスクセットのサイズが増大し,タスクセット内での知覚的類似度が増大するにつれて,知覚的注目の高まりが強くなることを示す。
論文 参考訳(メタデータ) (2020-02-22T09:10:24Z) - The Costs and Benefits of Goal-Directed Attention in Deep Convolutional
Neural Networks [6.445605125467574]
人々は、失われたキーを見つけるなどのタスクを達成するために、トップダウンでゴール指向の注意を配置します。
分類モデルにおける選択的注意を動機として、自然主義的(写真的)刺激を処理できる目標指向の注意機構を開発した。
我々の注意機構は、前頭前皮質(PFC)からトップダウンの影響を取り入れ、ゴール指向行動を支援する。
論文 参考訳(メタデータ) (2020-02-06T16:42:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。