論文の概要: Are Classification Robustness and Explanation Robustness Really Strongly
Correlated? An Analysis Through Input Loss Landscape
- arxiv url: http://arxiv.org/abs/2403.06013v1
- Date: Sat, 9 Mar 2024 21:26:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 11:26:54.646571
- Title: Are Classification Robustness and Explanation Robustness Really Strongly
Correlated? An Analysis Through Input Loss Landscape
- Title(参考訳): 分類ロバスト性と説明ロバスト性は本当に相関しているか?
入力損失ランドスケープによる分析
- Authors: Tiejin Chen, Wenwang Huang, Linsey Pang, Dongsheng Luo, Hua Wei
- Abstract要約: 説明力の強化は、説明力の喪失に関して、必ずしも入力損失の景観を平らにするとは限らないことを実証する。
本稿では,損失景観を説明的損失に対して調整する基礎的学習手法を提案する。
このような調整は説明の堅牢性に影響を与えるが、分類の堅牢性には影響を与えない。
- 参考スコア(独自算出の注目度): 9.830914690669598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper delves into the critical area of deep learning robustness,
challenging the conventional belief that classification robustness and
explanation robustness in image classification systems are inherently
correlated. Through a novel evaluation approach leveraging clustering for
efficient assessment of explanation robustness, we demonstrate that enhancing
explanation robustness does not necessarily flatten the input loss landscape
with respect to explanation loss - contrary to flattened loss landscapes
indicating better classification robustness. To deeply investigate this
contradiction, a groundbreaking training method designed to adjust the loss
landscape with respect to explanation loss is proposed. Through the new
training method, we uncover that although such adjustments can impact the
robustness of explanations, they do not have an influence on the robustness of
classification. These findings not only challenge the prevailing assumption of
a strong correlation between the two forms of robustness but also pave new
pathways for understanding relationship between loss landscape and explanation
loss.
- Abstract(参考訳): 本稿では,画像分類システムにおける分類ロバスト性と説明ロバスト性は本質的に相関しているという従来の信念に挑戦する。
説明ロバストネスの効率的な評価にクラスタリングを利用する新しい評価手法を用いて,説明ロバスト性の向上は説明ロバスト性が向上することを示すフラット化ロスランドスケープとは対照的に,説明ロバストネスに関して必ずしも入力損失ランドスケープを平坦化しないことを示す。
この矛盾を深く研究するために,説明的損失に対する損失景観の調整を目的とした接地訓練手法を提案する。
新たな学習方法により,説明のロバスト性には影響を与えうるが,分類のロバスト性には影響を与えないことが明らかとなった。
これらの結果は,2種類の強靭性の間に強い相関関係が存在するという仮定に挑戦するだけでなく,損失景観と説明損失の関係を理解するための新たな経路を舗装する。
関連論文リスト
- Dual-Head Knowledge Distillation: Enhancing Logits Utilization with an Auxiliary Head [38.898038672237746]
本稿では,広く使用されている確率レベル損失関数の補足として,ロジットレベル損失関数を導入する。
新たに導入されたロジットレベルの損失と,それ以前の確率レベルの損失の合計は,性能劣化につながる。
本稿では, 線形分類器を2つの分類ヘッドに分割し, 損失の異なる2つの分類ヘッドに分割する, 二重知識蒸留法を提案する。
論文 参考訳(メタデータ) (2024-11-13T12:33:04Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Understanding and Combating Robust Overfitting via Input Loss Landscape
Analysis and Regularization [5.1024659285813785]
アドリアリトレーニングは過度に適合する傾向があり、原因は明らかになっていない。
標準的なトレーニング,特にクリーンロスの最小化による,堅牢なオーバーフィッティング結果が得られます。
対向方向に沿った重み付きロジット変動をペナル化することにより、損失景観の平滑化を図るための新しい正規化器を提案する。
論文 参考訳(メタデータ) (2022-12-09T16:55:30Z) - Boundary Adversarial Examples Against Adversarial Overfitting [4.391102490444538]
敵の訓練アプローチは頑強なオーバーフィッティングに苦しむが、モデルがあまりに長く敵の訓練を受けると、頑健な精度が低下する。
強靭なオーバーフィッティングの効果を軽減するため, 早期停止, 時間的アンサンブル, 体重記憶などの緩和手法が提案されている。
本稿では,これらの緩和アプローチが相互に補完的であるかどうかを,対向訓練性能の向上のために検討する。
論文 参考訳(メタデータ) (2022-11-25T13:16:53Z) - Robust Weight Perturbation for Adversarial Training [112.57295738113939]
オーバーフィッティングは、ディープネットワークの敵の堅牢なトレーニングにおいて広く存在する。
対向重み摂動は、堅牢な一般化ギャップを減らすのに役立つ。
重量摂動を規制する基準は、敵の訓練に不可欠である。
論文 参考訳(メタデータ) (2022-05-30T03:07:14Z) - A Hierarchical Assessment of Adversarial Severity [3.0478504236139528]
大規模データセットであるiNaturalist-Hへのロバストネスと重大度の測定による対向雑音の影響について検討した。
従来の逆行訓練をシンプルながら効果的な階層型カリキュラムトレーニングで強化し,これらのノードを階層型ツリー内で徐々に学習する。
我々は、階層的な防御により、深いモデルによって敵のロバスト性が1.85%向上し、全ての攻撃の重症度が平均0.17減少することを示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-08-26T13:29:17Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Lower-bounded proper losses for weakly supervised classification [73.974163801142]
本稿では,弱いラベルが与えられた分類の弱い教師付き学習の問題について議論する。
サベージ表現を双対化する教師付き学習における適切な損失を表す表現定理を導出する。
提案手法の有効性を,不適切な損失や非有界損失と比較して実験的に実証した。
論文 参考訳(メタデータ) (2021-03-04T08:47:07Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z) - Adversarial Weight Perturbation Helps Robust Generalization [65.68598525492666]
敵のトレーニングは、敵の例に対するディープニューラルネットワークの堅牢性を改善する最も有望な方法である。
本研究は, 対人訓練において, 広く使用されている減量景観(重量に対する空間変化)が果たす効果を示す。
本稿では, 重量減少景観の平坦性を明確に調整するための, 単純かつ効果的な対向重み摂動(AWP)を提案する。
論文 参考訳(メタデータ) (2020-04-13T12:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。