論文の概要: Robustness from Simple Classifiers
- arxiv url: http://arxiv.org/abs/2002.09422v1
- Date: Fri, 21 Feb 2020 17:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:42:41.014678
- Title: Robustness from Simple Classifiers
- Title(参考訳): 単純分類器からのロバスト性
- Authors: Sharon Qian, Dimitris Kalimeris, Gal Kaplun, Yaron Singer
- Abstract要約: 頑丈さと単純さの関連について検討する。
出力クラス数を減らした単純な分類器は、対角的摂動の影響を受けにくいことが判明した。
- 参考スコア(独自算出の注目度): 31.50446148110293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the vast success of Deep Neural Networks in numerous application
domains, it has been shown that such models are not robust i.e., they are
vulnerable to small adversarial perturbations of the input. While extensive
work has been done on why such perturbations occur or how to successfully
defend against them, we still do not have a complete understanding of
robustness. In this work, we investigate the connection between robustness and
simplicity. We find that simpler classifiers, formed by reducing the number of
output classes, are less susceptible to adversarial perturbations.
Consequently, we demonstrate that decomposing a complex multiclass model into
an aggregation of binary models enhances robustness. This behavior is
consistent across different datasets and model architectures and can be
combined with known defense techniques such as adversarial training. Moreover,
we provide further evidence of a disconnect between standard and robust
learning regimes. In particular, we show that elaborate label information can
help standard accuracy but harm robustness.
- Abstract(参考訳): 多くのアプリケーション領域におけるディープニューラルネットワークの成功にもかかわらず、そのようなモデルは堅牢ではない、すなわち、入力の小さな対向的摂動に弱いことが示されている。
このような摂動が発生する理由や、それに対する防御に成功する方法については、広範な研究が行われてきましたが、堅牢性に関する完全な理解はいまだにありません。
本研究では,頑健性と簡易性との関係について検討する。
出力クラスの数を減らすことによって形成される単純な分類器は、逆摂動の影響を受けにくい。
その結果,複雑なマルチクラスモデルをバイナリモデルの集約に分解することで,堅牢性が向上することを示す。
この振る舞いは、異なるデータセットやモデルアーキテクチャ間で一貫性があり、敵のトレーニングのような既知の防御技術と組み合わせることができる。
さらに,標準と頑健な学習体制の切り離しのさらなる証拠を提供する。
特に,精巧なラベル情報は標準精度に寄与するが,堅牢性は損なう。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Evaluating the Adversarial Robustness of Semantic Segmentation: Trying Harder Pays Off [0.6554326244334868]
対人摂動に対する感度の良好な近似は、現在満足していると見なされているものよりもはるかに多くの労力を要すると我々は主張する。
我々は新たな攻撃を提案し、文学で利用可能な最強の攻撃と組み合わせる。
我々の結果は、異なるモデルが異なる攻撃に対して脆弱であることが多いため、多様な強力な攻撃が必要であることも示している。
論文 参考訳(メタデータ) (2024-07-12T10:32:53Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - What Do Adversarially trained Neural Networks Focus: A Fourier
Domain-based Study [8.912245110734334]
この研究は、敵対的に訓練されたモデルがどのような情報に焦点を当てるかを研究する。
データ拡張とより強力なネットワークアーキテクチャによるモデルロバスト性を改善するための2つの一般的な方法を検討する。
論文 参考訳(メタデータ) (2022-03-16T16:37:17Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。