論文の概要: Object Based Attention Through Internal Gating
- arxiv url: http://arxiv.org/abs/2106.04540v1
- Date: Tue, 8 Jun 2021 17:20:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:21:58.778015
- Title: Object Based Attention Through Internal Gating
- Title(参考訳): 内部ゲーティングによるオブジェクトベース注意
- Authors: Jordan Lei, Ari S. Benjamin, Konrad P. Kording
- Abstract要約: 本稿では,物体に基づく注目のニューラルネットワークモデルを提案する。
私たちのモデルは、トップダウンとリカレントの両方に注意が向けられる方法を捉えています。
我々のモデルは神経科学からのさまざまな発見を再現している。
- 参考スコア(独自算出の注目度): 4.941630596191806
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Object-based attention is a key component of the visual system, relevant for
perception, learning, and memory. Neurons tuned to features of attended objects
tend to be more active than those associated with non-attended objects. There
is a rich set of models of this phenomenon in computational neuroscience.
However, there is currently a divide between models that successfully match
physiological data but can only deal with extremely simple problems and models
of attention used in computer vision. For example, attention in the brain is
known to depend on top-down processing, whereas self-attention in deep learning
does not. Here, we propose an artificial neural network model of object-based
attention that captures the way in which attention is both top-down and
recurrent. Our attention model works well both on simple test stimuli, such as
those using images of handwritten digits, and on more complex stimuli, such as
natural images drawn from the COCO dataset. We find that our model replicates a
range of findings from neuroscience, including attention-invariant tuning,
inhibition of return, and attention-mediated scaling of activity. Understanding
object based attention is both computationally interesting and a key problem
for computational neuroscience.
- Abstract(参考訳): オブジェクトベースの注意は視覚システムの重要な要素であり、知覚、学習、記憶に関係している。
観察対象の特徴に合わせて調整されたニューロンは、非接触対象と関連するニューロンよりも活動的である傾向がある。
この現象の豊富なモデルが計算神経科学において存在する。
しかし、現在、生理学的データに適合するが、非常に単純な問題やコンピュータビジョンで使われる注意のモデルにしか対処できないモデルの間には、隔たりがある。
例えば、脳内の注意はトップダウン処理に依存することが知られているが、ディープラーニングにおける自己注意はそうではない。
本稿では,注意がトップダウンとリカレントの両方であることを示す,オブジェクトベースの注意の人工ニューラルネットワークモデルを提案する。
我々の注意モデルは、手書き数字の画像のような単純なテスト刺激と、COCOデータセットから引き出された自然な画像のようなより複雑な刺激の両方でうまく機能する。
本モデルは,注意不変のチューニング,戻りの抑制,注意を媒介とした活動のスケーリングなど,神経科学から得られた知見を再現する。
対象に基づく注意を理解することは、計算的に興味深いことと、計算神経科学の重要な問題である。
関連論文リスト
- BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Bi-directional Object-context Prioritization Learning for Saliency
Ranking [60.62461793691836]
既存のアプローチは、オブジェクトオブジェクトかオブジェクトシーンの関係を学ぶことに集中しています。
我々は,人間の視覚認識システムにおいて,空間的注意と物体に基づく注意が同時に機能することが観察された。
本稿では,空間的注意を統一する新たな双方向手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:03Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Where to Look: A Unified Attention Model for Visual Recognition with
Reinforcement Learning [5.247711598719703]
視覚的注意を繰り返すために,トップダウンとボトムアップを一体化することを提案する。
我々のモデルは、画像ピラミッドとQラーニングを利用して、トップダウンアテンションメカニズムにおける関心領域を選択する。
我々は、エンドツーエンドの強化学習フレームワークでモデルをトレーニングし、視覚的分類タスクにおける手法の評価を行う。
論文 参考訳(メタデータ) (2021-11-13T18:44:50Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Neural encoding with visual attention [17.020869686284165]
トレーニング可能なソフトアテンションモジュールを組み込んだニューラルエンコーディング手法を提案する。
独立データに基づくモデルにより推定された注意位置は、対応する眼球固定パターンとよく一致している。
論文 参考訳(メタデータ) (2020-10-01T16:04:21Z) - Attention or memory? Neurointerpretable agents in space and time [0.0]
本研究では,意味的特徴空間にタスク状態表現を実装する自己認識機構を組み込んだモデルの設計を行う。
エージェントの選択的特性を評価するために,多数のタスク非関連特徴を観察に付加する。
神経科学の予測に従って、自己注意は、ベンチマークモデルと比較してノイズに対する堅牢性を高める。
論文 参考訳(メタデータ) (2020-07-09T15:04:26Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。