論文の概要: Bio-inspired Robustness: A Review
- arxiv url: http://arxiv.org/abs/2103.09265v1
- Date: Tue, 16 Mar 2021 18:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 13:12:06.462157
- Title: Bio-inspired Robustness: A Review
- Title(参考訳): バイオインスパイアされたロバストネス
- Authors: Harshitha Machiraju, Oh-Hyeon Choung, Pascal Frossard, Michael. H
Herzog
- Abstract要約: 深層畳み込みニューラルネットワーク(dcnn)はコンピュータビジョンに革命をもたらし、しばしば人間の視覚システムの良いモデルとして主張されている。
しかし、現在DCNNには多くの欠点があり、人間の視覚のモデルとして利用できない。
- 参考スコア(独自算出の注目度): 46.817006169430265
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep convolutional neural networks (DCNNs) have revolutionized computer
vision and are often advocated as good models of the human visual system.
However, there are currently many shortcomings of DCNNs, which preclude them as
a model of human vision. For example, in the case of adversarial attacks, where
adding small amounts of noise to an image, including an object, can lead to
strong misclassification of that object. But for humans, the noise is often
invisible. If vulnerability to adversarial noise cannot be fixed, DCNNs cannot
be taken as serious models of human vision. Many studies have tried to add
features of the human visual system to DCNNs to make them robust against
adversarial attacks. However, it is not fully clear whether human vision
inspired components increase robustness because performance evaluations of
these novel components in DCNNs are often inconclusive. We propose a set of
criteria for proper evaluation and analyze different models according to these
criteria. We finally sketch future efforts to make DCCNs one step closer to the
model of human vision.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(dcnn)はコンピュータビジョンに革命をもたらし、しばしば人間の視覚システムの良いモデルとして主張されている。
しかし、現在DCNNには多くの欠点があり、人間の視覚のモデルとして利用できない。
例えば、敵対的な攻撃の場合、オブジェクトを含む画像に少量のノイズを加えると、そのオブジェクトの強い誤分類につながる可能性がある。
しかし、人間にとってノイズはしばしば目に見えない。
敵対的ノイズに対する脆弱性が修正できない場合、DCNNは人間の視覚の真剣なモデルとみなすことはできない。
多くの研究が、ヒトの視覚系の特徴をDCNNに追加し、敵の攻撃に対して堅牢にしようと試みている。
しかし、DCNNにおけるこれらの新しいコンポーネントの性能評価がしばしば不確定であるため、人間の視覚にインスパイアされたコンポーネントがロバスト性を高めるか否かは明らかになっていない。
これらの基準に基づいて, 適切な評価と分析のための一連の基準を提案する。
我々はついに、DCCNを人間の視覚モデルに一歩近付けるための将来の取り組みをスケッチした。
関連論文リスト
- Leveraging the Human Ventral Visual Stream to Improve Neural Network Robustness [8.419105840498917]
人間の物体認識は、乱雑でダイナミックな視覚環境において顕著なレジリエンスを示す。
多くの視覚的タスクにまたがるパフォーマンスにもかかわらず、Deep Neural Networks(DNN)は人間よりもはるかに堅牢である。
ここでは,人間の腹側視覚ストリームの階層的な領域から神経表現によって誘導されたDNNが,敵の攻撃に対する堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2024-05-04T04:33:20Z) - Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception [10.883174135300418]
敵対的な攻撃は長年、深層学習の「アキレスのヒール」と見なされてきた。
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
論文 参考訳(メタデータ) (2023-06-05T20:26:17Z) - Are Deep Neural Networks Adequate Behavioural Models of Human Visual
Perception? [8.370048099732573]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、コンピュータビジョンに革命をもたらした機械学習アルゴリズムである。
統計ツールと計算モデルとを区別することが重要であると論じる。
我々は視覚科学においてDNNを取り巻く多くの神話を排除した。
論文 参考訳(メタデータ) (2023-05-26T15:31:06Z) - Explainability and Robustness of Deep Visual Classification Models [14.975436239088312]
コンピュータビジョンコミュニティでは、畳み込みニューラルネットワーク(CNN)が標準的な視覚分類モデルとなっている。
CNNの代替として、Capsule Networks (CapsNets) と Vision Transformers (ViTs) が提案されている。
CapsNetsはCNNよりも誘導バイアスが大きいと考えられているが、ViTsはCNNよりも誘導バイアスが少ないと考えられている。
論文 参考訳(メタデータ) (2023-01-03T20:23:43Z) - Empirical Advocacy of Bio-inspired Models for Robust Image Recognition [39.37304194475199]
このような生体モデルとその特性を詳細に分析する。
バイオインスパイアされたモデルは、特別なデータ拡張を必要とせず、逆向きに堅牢である傾向がある。
また、他のDCNNモデルとは対照的に、バイオインスパイアされたモデルは低周波情報と中周波情報の両方を使用する傾向がある。
論文 参考訳(メタデータ) (2022-05-18T16:19:26Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。