論文の概要: Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection
- arxiv url: http://arxiv.org/abs/2307.02500v2
- Date: Sun, 19 Nov 2023 15:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 18:46:14.852022
- Title: Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection
- Title(参考訳): 対人訓練による解釈可能なコンピュータビジョンモデル:ロバスト性-解釈可能性結合を解き明かす
- Authors: Delyan Boychev
- Abstract要約: 解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the perpetual increase of complexity of the state-of-the-art deep neural
networks, it becomes a more and more challenging task to maintain their
interpretability. Our work aims to evaluate the effects of adversarial training
utilized to produce robust models - less vulnerable to adversarial attacks. It
has been shown to make computer vision models more interpretable.
Interpretability is as essential as robustness when we deploy the models to the
real world. To prove the correlation between these two problems, we extensively
examine the models using local feature-importance methods (SHAP, Integrated
Gradients) and feature visualization techniques (Representation Inversion,
Class Specific Image Generation). Standard models, compared to robust are more
susceptible to adversarial attacks, and their learned representations are less
meaningful to humans. Conversely, these models focus on distinctive regions of
the images which support their predictions. Moreover, the features learned by
the robust model are closer to the real ones.
- Abstract(参考訳): 最先端のディープニューラルネットワークの複雑性が永久に増大するにつれて、その解釈性を維持することがますます難しくなっている。
本研究は,ロバストなモデル作成に使用される敵の訓練の効果を評価することを目的としている。
コンピュータビジョンモデルをより解釈可能にすることが示されている。
モデルを現実世界にデプロイする場合、解釈性は堅牢性と同じくらい不可欠です。
これら2つの課題の相関性を証明するため,局所的特徴重要度法 (SHAP, 統合的勾配法) と特徴可視化技術 (Representation Inversion, Class Specific Image Generation) を用いてモデルを広範囲に検討した。
標準モデルは、ロバストに比べて敵の攻撃の影響を受けやすく、その学習された表現は人間にとって意味をなさない。
逆に、これらのモデルは予測をサポートする画像の特徴的な領域に焦点を当てている。
さらに、ロバストモデルによって学習される機能は、実際のものに近い。
関連論文リスト
- Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - Does Saliency-Based Training bring Robustness for Deep Neural Networks
in Image Classification? [0.0]
Deep Neural Networksのブラックボックスの性質は、内部動作の完全な理解を妨げる。
オンラインサリエンシ誘導トレーニング手法は、この問題を軽減するために、モデルのアウトプットの顕著な特徴を強調しようとする。
我々は、ロバスト性を定量化し、モデル出力のよく説明された視覚化にもかかわらず、健全なモデルは敵のサンプル攻撃に対して低い性能に苦しむと結論づける。
論文 参考訳(メタデータ) (2023-06-28T22:20:19Z) - Robust Models are less Over-Confident [10.42820615166362]
敵の訓練(AT)は、このような攻撃に対して堅牢性を達成することを目的としている。
我々は、高い堅牢な精度を達成するために、様々な敵に訓練されたモデルを経験的に分析する。
ATには興味深い副作用がある。それは、彼らの決定に非常に自信の持たないモデルに繋がる。
論文 参考訳(メタデータ) (2022-10-12T06:14:55Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Impact of Attention on Adversarial Robustness of Image Classification
Models [0.9176056742068814]
ディープラーニングモデルに対するアドリアック攻撃が注目されている。
近年の研究では、これらの攻撃からモデルを守るための敵の例や技法の存在について説明がされている。
この研究は、相手の強靭性に対する注意の影響の一般的な理解を目的としている。
論文 参考訳(メタデータ) (2021-09-02T13:26:32Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。