論文の概要: Two Heads are Better than One: Towards Better Adversarial Robustness by
Combining Transduction and Rejection
- arxiv url: http://arxiv.org/abs/2305.17528v1
- Date: Sat, 27 May 2023 17:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 18:38:29.856729
- Title: Two Heads are Better than One: Towards Better Adversarial Robustness by
Combining Transduction and Rejection
- Title(参考訳): 2つの頭は1より優れている:トランスダクションとリジェクションの組み合わせによる対向ロバストネスの改善を目指して
- Authors: Nils Palumbo, Yang Guo, Xi Wu, Jiefeng Chen, Yingyu Liang, Somesh Jha
- Abstract要約: トランスダクティブ・セッティングにおけるトラマーの分類器・検出技法の新たな応用により、ロバストな一般化のためのサンプル・複雑度が大幅に向上することを示す。
理論的構成は計算的に非効率であるが、選択モデルを学ぶための効率的なトランスダクティブアルゴリズムを特定するのに役立つ。
- 参考スコア(独自算出の注目度): 34.0779912244438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Both transduction and rejection have emerged as important techniques for
defending against adversarial perturbations. A recent work by Tram\`er showed
that, in the rejection-only case (no transduction), a strong rejection-solution
can be turned into a strong (but computationally inefficient) non-rejection
solution. This detector-to-classifier reduction has been mostly applied to give
evidence that certain claims of strong selective-model solutions are
susceptible, leaving the benefits of rejection unclear. On the other hand, a
recent work by Goldwasser et al. showed that rejection combined with
transduction can give provable guarantees (for certain problems) that cannot be
achieved otherwise. Nevertheless, under recent strong adversarial attacks
(GMSA, which has been shown to be much more effective than AutoAttack against
transduction), Goldwasser et al.'s work was shown to have low performance in a
practical deep-learning setting. In this paper, we take a step towards
realizing the promise of transduction+rejection in more realistic scenarios.
Theoretically, we show that a novel application of Tram\`er's
classifier-to-detector technique in the transductive setting can give
significantly improved sample-complexity for robust generalization. While our
theoretical construction is computationally inefficient, it guides us to
identify an efficient transductive algorithm to learn a selective model.
Extensive experiments using state of the art attacks (AutoAttack, GMSA) show
that our solutions provide significantly better robust accuracy.
- Abstract(参考訳): トランスダクションと拒絶は、敵の摂動を防御する重要な技術として現れてきた。
Tram\`er による最近の研究は、拒絶のみの場合(トランスダクションなし)、強い拒絶解を強い(しかし計算上非効率な)非還元解に変換することができることを示した。
この検出器から分類器への還元は、強い選択的モデル解の特定の主張が影響を受けやすいという証拠を与えるために主に適用され、拒絶の利点は不明確である。
一方、goldwasserらによる最近の研究は、拒絶と変換が組み合わさることで(特定の問題に対して)証明可能な保証が得られないことを示した。
それにもかかわらず、最近の強敵攻撃(GMSA)では、ゴールドワッサーらの研究は実践的な深層学習環境では性能が低いことが示されている。
本稿では,より現実的なシナリオにおけるトランスダクション+リジェクションの実現に向けて一歩踏み出した。
理論的には、トランスダクティブ・セッティングにおけるTram\`er's classifier-to-detector 法の新たな応用により、ロバストな一般化のためのサンプル複雑度が大幅に向上することを示す。
我々の理論的構成は計算量的に非効率であるが、選択モデルを学ぶための効率的なトランスダクティブアルゴリズムの同定を導く。
GMSA (AutoAttack, GMSA) を用いた大規模実験により, 本手法の精度は大幅に向上した。
関連論文リスト
- Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - Shortcuts Arising from Contrast: Effective and Covert Clean-Label Attacks in Prompt-Based Learning [40.130762098868736]
本稿では、アクティベーション値を活用し、トリガ設計とデータ選択戦略を統合して、より強力なショートカット機能を実現するContrastive Shortcut Injection (CSI) を提案する。
フルショットおよび少数ショットのテキスト分類タスクに関する広範な実験により、CSIの高有効性と高い盗聴性を低毒性率で実証的に検証した。
論文 参考訳(メタデータ) (2024-03-30T20:02:36Z) - Stratified Adversarial Robustness with Rejection [33.72077702550626]
本研究は, 階層化拒絶条件において, 否定を伴う逆ロバスト分類について検討する。
我々は,一貫性予測に基づくリジェクション(CPR)を用いた対人訓練という新しい防衛手法を提案する。
CPRは、アダプティブアタックによって既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-05-02T01:04:29Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Going Far Boosts Attack Transferability, but Do Not Do It [16.901240544106948]
7つの最適化アルゴリズム,4つのサロゲート,9つのブラックボックスモデルに関する包括的実験により,攻撃伝達性に対する最適化の影響を検討した。
最適化アルゴリズムからのAEsの様々な転送性は、元のサンプルから得られたRoot Mean Square Error(RMSE)と強く関係している。
LARAは転送可能性を大幅に20%改善するが、DNNの脆弱性を利用するには不十分である。
論文 参考訳(メタデータ) (2021-02-20T13:19:31Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - Global Optimization of Objective Functions Represented by ReLU Networks [77.55969359556032]
ニューラルネットワークは複雑で非敵対的な関数を学ぶことができ、安全クリティカルな文脈でそれらの正しい振る舞いを保証することは困難である。
ネットワーク内の障害を見つけるための多くのアプローチ(例えば、敵の例)があるが、これらは障害の欠如を保証できない。
本稿では,最適化プロセスを検証手順に統合し,本手法よりも優れた性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T08:19:48Z) - Adversarial robustness via stochastic regularization of neural
activation sensitivity [24.02105949163359]
両防衛目標を同時に扱う新しい防衛機構を提案する。
損失面の勾配を平坦化し、逆例を見つけるのが難しくなる。
さらに、ジャコビアン正則化を利用して、正しく分類された入力から決定を遠ざける。
論文 参考訳(メタデータ) (2020-09-23T19:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。