論文の概要: Human Eyes Inspired Recurrent Neural Networks are More Robust Against
Adversarial Noises
- arxiv url: http://arxiv.org/abs/2206.07282v1
- Date: Wed, 15 Jun 2022 03:44:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 06:24:10.056955
- Title: Human Eyes Inspired Recurrent Neural Networks are More Robust Against
Adversarial Noises
- Title(参考訳): 人間の目に触発されたリカレントニューラルネットワークは、敵の騒音に対してよりロバスト
- Authors: Minkyu Choi, Yizhen Zhang, Kuan Han, Xiaokai Wang, and Zhongming Liu
- Abstract要約: 人間の視覚と比較して、畳み込みニューラルネットワーク(CNN)に基づくコンピュータビジョンは、敵の雑音に対してより脆弱である。
この違いは、眼が視覚入力をどのようにサンプルし、脳が網膜サンプルを背側および腹側視覚経路を通してどのように処理するかに起因している可能性が高い。
我々は、人間の網膜を模倣する入力サンプリング器、次に見る場所を案内する背側ネットワーク、網膜のサンプルを表す腹側ネットワークを含む、反復的なニューラルネットワークを設計する。
これらのモジュールをひとつにまとめると、モデルはイメージを複数回見て、各見た目で健全な部分に参加し、画像を認識するために時間をかけて表現を蓄積する。
- 参考スコア(独自算出の注目度): 3.8738982761490988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compared to human vision, computer vision based on convolutional neural
networks (CNN) are more vulnerable to adversarial noises. This difference is
likely attributable to how the eyes sample visual input and how the brain
processes retinal samples through its dorsal and ventral visual pathways, which
are under-explored for computer vision. Inspired by the brain, we design
recurrent neural networks, including an input sampler that mimics the human
retina, a dorsal network that guides where to look next, and a ventral network
that represents the retinal samples. Taking these modules together, the models
learn to take multiple glances at an image, attend to a salient part at each
glance, and accumulate the representation over time to recognize the image. We
test such models for their robustness against a varying level of adversarial
noises with a special focus on the effect of different input sampling
strategies. Our findings suggest that retinal foveation and sampling renders a
model more robust against adversarial noises, and the model may correct itself
from an attack when it is given a longer time to take more glances at an image.
In conclusion, robust visual recognition can benefit from the combined use of
three brain-inspired mechanisms: retinal transformation, attention guided eye
movement, and recurrent processing, as opposed to feedforward-only CNNs.
- Abstract(参考訳): 人間の視覚と比較して、畳み込みニューラルネットワーク(CNN)に基づくコンピュータビジョンは、敵の雑音に対してより脆弱である。
この違いは、目の視覚入力のサンプルと、脳が背側と腹側の視覚経路を通して網膜のサンプルをどう処理するかに起因している可能性が高い。
脳にインスパイアされた私たちは、人間の網膜を模倣する入力サンプルラー、次に見る場所を案内する背側ネットワーク、網膜のサンプルを表す腹側ネットワークなど、反復するニューラルネットワークを設計しました。
これらのモジュールをひとつにまとめると、モデルはイメージを複数回見て、各見た目で健全な部分に参加し、画像を認識するために時間をかけて表現を蓄積する。
本研究では, 異なる入力サンプリング戦略の効果に着目し, 様々なレベルの逆方向雑音に対するロバスト性を検証した。
以上の結果から, 網膜のfoveation と sampling は, 逆向きのノイズに対してより頑健なモデルとなり, 画像を見る時間が長くなると, モデルが攻撃から自身を修正できる可能性が示唆された。
結論として、堅牢な視覚認識は、フィードフォワードのみのCNNとは対照的に、網膜変換、注意誘導眼球運動、反復処理の3つの脳誘発メカニズムの併用による恩恵を受けることができる。
関連論文リスト
- A Dual-Stream Neural Network Explains the Functional Segregation of
Dorsal and Ventral Visual Pathways in Human Brains [8.24969449883056]
我々は人間の目と脳にインスパイアされたデュアルストリーム視覚モデルを開発する。
入力レベルでは、モデルは2つの相補的な視覚パターンをサンプリングする。
バックエンドでは、モデルが分離された入力パターンを畳み込みニューラルネットワークの2つのブランチを通して処理する。
論文 参考訳(メタデータ) (2023-10-20T22:47:40Z) - Training on Foveated Images Improves Robustness to Adversarial Attacks [26.472800216546233]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが示されている。
RBlurは、画像のぼやけて彩度を下げることで、周辺視力の損失をシミュレートする画像変換である。
RBlurによって変換された画像に基づいてトレーニングされたDNNは、敵対的攻撃や、他の非敵的、汚職に対してかなり堅牢であり、摂動データに対して最大25%高い精度を達成する。
論文 参考訳(メタデータ) (2023-08-01T21:40:30Z) - Probing neural representations of scene perception in a hippocampally
dependent task using artificial neural networks [1.0312968200748116]
バックプロパゲーションによって訓練されたディープ人工ニューラルネットワーク(DNN)は、哺乳類の視覚システムの効果的なモデルを提供する。
本稿では,海馬依存型課題に触発されたシーン認識ベンチマークについて述べる。
側頭葉構造と海馬の接続性に着想を得たネットワークアーキテクチャを用いて,三重項損失を用いて訓練したDNNが,この課題を学習できることを実証した。
論文 参考訳(メタデータ) (2023-03-11T10:26:25Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Towards robust vision by multi-task learning on monkey visual cortex [6.9014416935919565]
我々は,深部ネットワークを併用して画像分類を行い,マカク一次視覚野(V1)の神経活動を予測する訓練を行った。
その結果,モンキーV1データによるコトレーニングは,トレーニング中に歪みがないにもかかわらず,ロバスト性の向上につながることがわかった。
また、ネットワークの堅牢性が向上するにつれて、ネットワークの表現がより脳に似たものになることを示した。
論文 参考訳(メタデータ) (2021-07-29T21:55:48Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。