論文の概要: Boosting Barely Robust Learners: A New Perspective on Adversarial
Robustness
- arxiv url: http://arxiv.org/abs/2202.05920v1
- Date: Fri, 11 Feb 2022 22:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 14:21:00.116759
- Title: Boosting Barely Robust Learners: A New Perspective on Adversarial
Robustness
- Title(参考訳): ベーシックなロバスト学習者の育成 : 対人ロバスト性の新しい視点
- Authors: Avrim Blum, Omar Montasser, Greg Shakhnarovich, Hongyang Zhang
- Abstract要約: 比較的ロバストな学習アルゴリズムは、少数の部分だけで逆向きにロバストな予測器を学習する。
提案した頑健な学習の概念は,「より大きい」集合に対する摂動を必要とする。
- 参考スコア(独自算出の注目度): 30.301460075475344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an oracle-efficient algorithm for boosting the adversarial
robustness of barely robust learners. Barely robust learning algorithms learn
predictors that are adversarially robust only on a small fraction $\beta \ll 1$
of the data distribution. Our proposed notion of barely robust learning
requires robustness with respect to a "larger" perturbation set; which we show
is necessary for strongly robust learning, and that weaker relaxations are not
sufficient for strongly robust learning. Our results reveal a qualitative and
quantitative equivalence between two seemingly unrelated problems: strongly
robust learning and barely robust learning.
- Abstract(参考訳): 比較的頑健な学習者の対角的堅牢性を高めるためのオラクル効率のアルゴリズムを提案する。
比較的堅牢な学習アルゴリズムは、データ分布の小さな$\beta \ll 1$だけで逆向きに堅牢な予測子を学習する。
提案するロバスト学習の概念では,強固な学習には強固さが必要であり,強固な学習には弱緩和が不十分であることを示す「大きな」摂動集合に対する強固さが必要である。
その結果、一見無関係な2つの問題、すなわち強固な学習とほとんどロバストな学習の間の質的かつ定量的等価性が明らかになった。
関連論文リスト
- Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Theoretical Foundations of Adversarially Robust Learning [7.589246500826111]
現在の機械学習システムは、敵の例に対して脆弱であることが示されている。
この論文では、敵の例に対して、ロバストネス特性がどのような保証を期待できるかを論じる。
論文 参考訳(メタデータ) (2023-06-13T12:20:55Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing [16.528628447356496]
本稿では,データプライベートな分散学習を実現するために,スムーズな手法を連携型対人訓練に取り入れる。
実験の結果,このような先進的な対人学習フレームワークは,集中的な訓練によって訓練されたモデルと同じくらい頑健なモデルを提供できることがわかった。
論文 参考訳(メタデータ) (2021-03-30T02:19:45Z) - Decoder-free Robustness Disentanglement without (Additional) Supervision [42.066771710455754]
提案手法は, 頑健さの監視を伴わずに, 頑健さと非ロバスト表現を確実に切り離すことができる。
実験結果から,本手法は2つの表現を組み合わせることで精度を向上するだけでなく,従来の手法よりもはるかに優れたアンタングル化を実現していることがわかった。
論文 参考訳(メタデータ) (2020-07-02T19:51:40Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。