論文の概要: Robustness in Deep Learning for Computer Vision: Mind the gap?
- arxiv url: http://arxiv.org/abs/2112.00639v1
- Date: Wed, 1 Dec 2021 16:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 13:31:07.713053
- Title: Robustness in Deep Learning for Computer Vision: Mind the gap?
- Title(参考訳): コンピュータビジョンのためのディープラーニングのロバスト性: ギャップを心に?
- Authors: Nathan Drenkow, Numair Sani, Ilya Shpitser, Mathias Unberath
- Abstract要約: 我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
- 参考スコア(独自算出の注目度): 13.576376492050185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks for computer vision tasks are deployed in increasingly
safety-critical and socially-impactful applications, motivating the need to
close the gap in model performance under varied, naturally occurring imaging
conditions. Robustness, ambiguously used in multiple contexts including
adversarial machine learning, here then refers to preserving model performance
under naturally-induced image corruptions or alterations.
We perform a systematic review to identify, analyze, and summarize current
definitions and progress towards non-adversarial robustness in deep learning
for computer vision. We find that this area of research has received
disproportionately little attention relative to adversarial machine learning,
yet a significant robustness gap exists that often manifests in performance
degradation similar in magnitude to adversarial conditions.
To provide a more transparent definition of robustness across contexts, we
introduce a structural causal model of the data generating process and
interpret non-adversarial robustness as pertaining to a model's behavior on
corrupted images which correspond to low-probability samples from the unaltered
data distribution. We then identify key architecture-, data augmentation-, and
optimization tactics for improving neural network robustness. This causal view
of robustness reveals that common practices in the current literature, both in
regards to robustness tactics and evaluations, correspond to causal concepts,
such as soft interventions resulting in a counterfactually-altered distribution
of imaging conditions. Through our findings and analysis, we offer perspectives
on how future research may mind this evident and significant non-adversarial
robustness gap.
- Abstract(参考訳): コンピュータビジョンタスクのためのディープニューラルネットワークは、ますます安全で社会的に影響を受けやすいアプリケーションにデプロイされ、様々な自然発生の撮像条件下でモデルパフォーマンスのギャップを埋める必要性を動機付けている。
敵対的機械学習を含む複数の文脈で明確に使用されるロバストネスは、自然に誘発される画像の破損や変化の下でモデルパフォーマンスを保存することを指す。
コンピュータビジョンのための深層学習における非敵対的ロバストネスに対する現在の定義と進歩を識別、分析、要約するために体系的なレビューを行う。
この研究領域は、敵対的機械学習と比較して不均等にほとんど注目されていないが、しばしば敵的条件に類似したパフォーマンス劣化を示す顕著な堅牢性ギャップが存在する。
コンテキスト間のロバスト性をより透過的に定義するために,データ生成プロセスの構造的因果モデルを導入し,非可逆的ロバスト性について,非可逆的ロバスト性データ分布から低確率サンプルに対応する劣化画像に対するモデルの挙動を解釈する。
次に、ニューラルネットワークの堅牢性を改善するための鍵となるアーキテクチャ、データ拡張、最適化戦略を特定する。
このロバスト性に関する因果的見解は、ロバスト性戦術と評価の両方に関して現在の文献における一般的な慣行が、画像条件の相反的な分布をもたらすソフト介入のような因果的概念に対応していることを示している。
調査結果と分析を通じて、この明らかで重要な非敵対的ロバスト性ギャップを将来の研究がどう考えるかの視点を提供する。
関連論文リスト
- Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - A Survey of Neural Network Robustness Assessment in Image Recognition [4.581878177334397]
近年,ニューラルネットワークの堅牢性評価に注目が集まっている。
ディープラーニングの堅牢性問題は特に重要であり、画像分類モデルに対する敵対的攻撃の発見によって強調される。
本稿では, ニューラルネットワーク評価において, 対向ロバスト性 (AR) と汚職ロバスト性 (CR) の両方を詳細に検討した。
論文 参考訳(メタデータ) (2024-04-12T07:19:16Z) - Understanding Robustness of Visual State Space Models for Image Classification [19.629800707546543]
Visual State Space Model (VMamba) は有望なアーキテクチャとして登場し、様々なコンピュータビジョンタスクにおいて顕著なパフォーマンスを示している。
対人攻撃に対する頑健性について検討し,全画像とパッチ固有の対人攻撃を併用した。
ホワイトボックス攻撃時のVMambaの勾配とバックプロパゲーションを調査し、ユニークな脆弱性と防御機能を明らかにする。
論文 参考訳(メタデータ) (2024-03-16T14:23:17Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - A Survey on the Robustness of Computer Vision Models against Common Corruptions [3.6486148851646063]
コンピュータビジョンモデルは、センサーエラーや極端な撮像環境に起因する入力画像の変化に影響を受けやすい。
これらの破損は、現実のシナリオにデプロイする際のモデルの信頼性を著しく損なう可能性がある。
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
論文 参考訳(メタデータ) (2023-05-10T10:19:31Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。