論文の概要: FAR: A General Framework for Attributional Robustness
- arxiv url: http://arxiv.org/abs/2010.07393v2
- Date: Tue, 8 Mar 2022 13:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:54:12.816773
- Title: FAR: A General Framework for Attributional Robustness
- Title(参考訳): FAR: 属性ロバストネスのための一般的なフレームワーク
- Authors: Adam Ivankay, Ivan Girardi, Chiara Marchiori and Pascal Frossard
- Abstract要約: 我々は、ロバストな属性を持つモデルの帰属的ロバストネス(FAR)のための新しいフレームワークを定義する。
FARは,既存のトレーニング手法の一般化,制約の少ない定式化であることを示す。
次に、このフレームワークの2つの新しいインスタンス化であるAATとAdvAATを提案し、ロバストな属性と予測の両方を直接最適化する。
- 参考スコア(独自算出の注目度): 42.49606659285249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribution maps are popular tools for explaining neural networks
predictions. By assigning an importance value to each input dimension that
represents its impact towards the outcome, they give an intuitive explanation
of the decision process. However, recent work has discovered vulnerability of
these maps to imperceptible adversarial changes, which can prove critical in
safety-relevant domains such as healthcare. Therefore, we define a novel
generic framework for attributional robustness (FAR) as general problem
formulation for training models with robust attributions. This framework
consist of a generic regularization term and training objective that minimize
the maximal dissimilarity of attribution maps in a local neighbourhood of the
input. We show that FAR is a generalized, less constrained formulation of
currently existing training methods. We then propose two new instantiations of
this framework, AAT and AdvAAT, that directly optimize for both robust
attributions and predictions. Experiments performed on widely used vision
datasets show that our methods perform better or comparably to current ones in
terms of attributional robustness while being more generally applicable. We
finally show that our methods mitigate undesired dependencies between
attributional robustness and some training and estimation parameters, which
seem to critically affect other competitor methods.
- Abstract(参考訳): 属性マップはニューラルネットワークの予測を説明する一般的なツールである。
結果に対する影響を表す各入力次元に重要な値を割り当てることで、決定プロセスの直感的な説明を与える。
しかし、近年の研究により、これらの地図の脆弱性が認識不能な敵対的変化に発見され、医療などの安全関連領域において重要なものとなった。
そこで本研究では,帰属的頑健性(Atributional robustness, FAR)を,ロバストな属性を持つモデルの一般的な問題定式化として定義する。
この枠組みは、入力の局所的な近傍における帰属写像の最大不一致を最小限に抑える汎用正規化項と訓練目的からなる。
FARは,既存のトレーニング手法の一般化,制約の少ない定式化であることを示す。
次に、このフレームワークの2つの新しいインスタンス化であるAATとAdvAATを提案し、ロバストな属性と予測の両方を直接最適化する。
広範に使用される視覚データセットで行った実験は、より広く適用できる一方で、帰属的ロバスト性の観点から、我々の手法が現在のものよりも優れ、あるいは比較可能であることを示している。
最終的に,提案手法は帰属的ロバスト性といくつかのトレーニングおよび推定パラメータ間の不要な依存関係を緩和することを示した。
関連論文リスト
- Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - A Unified Wasserstein Distributional Robustness Framework for
Adversarial Training [24.411703133156394]
本稿では、ワッサーシュタイン分布のロバスト性と現在の最先端AT法を結合する統一的なフレームワークを提案する。
我々は、新しいワッサースタインコスト関数と、新しい一連のリスク関数を導入し、標準ATメソッドが我々のフレームワークのそれに対応する特別なケースであることを示す。
この接続は、既存のAT手法の直感的な緩和と一般化をもたらし、分散ロバスト性ATベースのアルゴリズムの新たなファミリーの開発を促進する。
論文 参考訳(メタデータ) (2022-02-27T19:40:29Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。