論文の概要: BI AVAN: Brain inspired Adversarial Visual Attention Network
- arxiv url: http://arxiv.org/abs/2210.15790v1
- Date: Thu, 27 Oct 2022 22:20:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 16:14:54.011408
- Title: BI AVAN: Brain inspired Adversarial Visual Attention Network
- Title(参考訳): BI AVAN: ブレインインインスパイアされた敵対的視覚注意ネットワーク
- Authors: Heng Huang, Lin Zhao, Xintao Hu, Haixing Dai, Lu Zhang, Dajiang Zhu,
Tianming Liu
- Abstract要約: 機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
- 参考スコア(独自算出の注目度): 67.05560966998559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual attention is a fundamental mechanism in the human brain, and it
inspires the design of attention mechanisms in deep neural networks. However,
most of the visual attention studies adopted eye-tracking data rather than the
direct measurement of brain activity to characterize human visual attention. In
addition, the adversarial relationship between the attention-related objects
and attention-neglected background in the human visual system was not fully
exploited. To bridge these gaps, we propose a novel brain-inspired adversarial
visual attention network (BI-AVAN) to characterize human visual attention
directly from functional brain activity. Our BI-AVAN model imitates the biased
competition process between attention-related/neglected objects to identify and
locate the visual objects in a movie frame the human brain focuses on in an
unsupervised manner. We use independent eye-tracking data as ground truth for
validation and experimental results show that our model achieves robust and
promising results when inferring meaningful human visual attention and mapping
the relationship between brain activities and visual stimuli. Our BI-AVAN model
contributes to the emerging field of leveraging the brain's functional
architecture to inspire and guide the model design in artificial intelligence
(AI), e.g., deep neural networks.
- Abstract(参考訳): 視覚的注意は人間の脳の基本的なメカニズムであり、ディープニューラルネットワークにおける注意機構の設計を促す。
しかし、視覚的注意研究の多くは、人間の視覚的注意を特徴づける脳活動を直接測定するよりも、視線追跡データを採用した。
また,人間の視覚系における注意関連物体と注意無視背景との敵対関係は十分に活用されなかった。
これらのギャップを埋めるために,機能的脳活動から直接人間の視覚的注意を特徴付ける新しい脳内対視注意ネットワーク(BI-AVAN)を提案する。
このバイアバンモデルでは,人間の脳が教師なしの方法で焦点をあてる映画フレーム内の視覚物体を識別・同定するために,注意関連・否定対象間のバイアス付き競争過程を模倣する。
我々は,脳活動と視覚刺激の関係をマッピングし,有意義な人間の視覚的注意を推定し,そのモデルが堅牢で有望な結果をもたらすことを示す。
私たちのBI-AVANモデルは、脳の機能的アーキテクチャを活用して、人工知能(AI)におけるモデル設計を刺激し、ガイドする分野、例えばディープニューラルネットワークに寄与します。
関連論文リスト
- BRACTIVE: A Brain Activation Approach to Human Visual Brain Learning [11.517021103782229]
本稿では,脳活動ネットワーク(BRACTIVE)について紹介する。
BRACTIVEの主な目的は、被験者の視覚的特徴をfMRI信号を介して対応する脳表現と整合させることである。
実験の結果, BRACTIVEは顔や身体選択領域など, 個人特有の関心領域を効果的に識別できることがわかった。
論文 参考訳(メタデータ) (2024-05-29T06:50:13Z) - Achieving More Human Brain-Like Vision via Human EEG Representational Alignment [1.811217832697894]
非侵襲脳波に基づく人間の脳活動に対応する視覚モデル「Re(presentational)Al(ignment)net」を提案する。
我々の革新的な画像から脳への多層符号化フレームワークは、複数のモデル層を最適化することにより、人間の神経のアライメントを向上する。
我々の発見は、ReAlnetが人工と人間の視覚のギャップを埋め、より脳に似た人工知能システムへの道を歩むブレークスルーを表していることを示唆している。
論文 参考訳(メタデータ) (2024-01-30T18:18:41Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Human Eyes Inspired Recurrent Neural Networks are More Robust Against Adversarial Noises [7.689542442882423]
我々は人間の脳にインスパイアされたデュアルストリーム視覚モデルを設計した。
このモデルは網膜のような入力層を特徴とし、次の焦点(固定点)を決定する2つのストリームと、固定点を取り巻く視覚を解釈する2つのストリームを含む。
このモデルを,物体認識,視線行動,対向強靭性の観点から評価した。
論文 参考訳(メタデータ) (2022-06-15T03:44:42Z) - Functional2Structural: Cross-Modality Brain Networks Representation
Learning [55.24969686433101]
脳ネットワーク上のグラフマイニングは、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を促進する可能性がある。
本稿では,Deep Signed Brain Networks (DSBN) と呼ばれる新しいグラフ学習フレームワークを提案する。
臨床表現型および神経変性疾患予測の枠組みを,2つの独立した公開データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-06T03:45:36Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Object Based Attention Through Internal Gating [4.941630596191806]
本稿では,物体に基づく注目のニューラルネットワークモデルを提案する。
私たちのモデルは、トップダウンとリカレントの両方に注意が向けられる方法を捉えています。
我々のモデルは神経科学からのさまざまな発見を再現している。
論文 参考訳(メタデータ) (2021-06-08T17:20:50Z) - Brain-inspired algorithms for processing of visual data [5.045960549713147]
視覚野のニューロンの機能に関する神経科学的知見に基づく画像処理とコンピュータビジョンのアプローチを概観する。
入力刺激の変化に対する安定性が向上した視覚系を提供するため,一部のニューロンの応答抑制機構に特に注目する。
論文 参考訳(メタデータ) (2021-03-02T10:45:38Z) - Visual Relationship Detection with Visual-Linguistic Knowledge from
Multimodal Representations [103.00383924074585]
視覚的関係検出は、画像内の有能なオブジェクト間の関係を推論することを目的としている。
変換器からの視覚言語表現(RVL-BERT)という新しい手法を提案する。
RVL-BERTは、自己教師付き事前学習を通じて学習した視覚的・言語的常識知識を用いて空間推論を行う。
論文 参考訳(メタデータ) (2020-09-10T16:15:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。