論文の概要: Language-Driven Anchors for Zero-Shot Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2301.13096v2
- Date: Mon, 10 Apr 2023 18:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 18:09:59.553892
- Title: Language-Driven Anchors for Zero-Shot Adversarial Robustness
- Title(参考訳): ゼロショット逆ロバストネスのための言語駆動型アンカー
- Authors: Xiao Li and Wei Zhang and Yining Liu and Zhanhao Hu and Bo Zhang and
Xiaolin Hu
- Abstract要約: 言語駆動型アンカーベースのアドリアトレーニング戦略であるLAATを提案する。
テキストエンコーダのセマンティック一貫性を活用することで、LAATは画像モデルの対角的堅牢性を高めることができる。
LAATはゼロショットの対角性能を著しく向上させ,従来の対角線対角線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向
- 参考スコア(独自算出の注目度): 22.292535345463698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are known to be susceptible to adversarial attacks. In
this work, we focus on improving adversarial robustness in the challenging
zero-shot image classification setting. To address this issue, we propose LAAT,
a novel Language-driven, Anchor-based Adversarial Training strategy. LAAT
utilizes a text encoder to generate fixed anchors (normalized feature
embeddings) for each category and then uses these anchors for adversarial
training. By leveraging the semantic consistency of the text encoders, LAAT can
enhance the adversarial robustness of the image model on novel categories
without additional examples. We identify the large cosine similarity problem of
recent text encoders and design several effective techniques to address it. The
experimental results demonstrate that LAAT significantly improves zero-shot
adversarial performance, outperforming previous state-of-the-art adversarially
robust one-shot methods. Moreover, our method produces substantial zero-shot
adversarial robustness when models are trained on large datasets such as
ImageNet-1K and applied to several downstream datasets.
- Abstract(参考訳): ディープニューラルネットワークは敵の攻撃を受けやすいことが知られている。
本研究では, 挑戦的ゼロショット画像分類設定において, 敵対的ロバスト性の向上に焦点をあてる。
この問題に対処するため,我々は,新しい言語駆動型アンカー型対外訓練戦略であるLAATを提案する。
LAATはテキストエンコーダを使用して各カテゴリの固定アンカー(正規化された特徴埋め込み)を生成し、これらのアンカーを敵の訓練に使用する。
テキストエンコーダのセマンティック一貫性を活用することで、LAATは新たなカテゴリにおける画像モデルの対角的堅牢性を高めることができる。
本研究では,最近のテキストエンコーダのコサイン類似度問題を特定し,それに対処するための有効な手法をいくつか設計する。
実験の結果、LAATはゼロショット対向性能を著しく向上し、従来の最先端の対向強靭なワンショット法よりも優れていた。
さらに,imagenet-1kのような大規模データセット上でモデルをトレーニングし,いくつかのダウンストリームデータセットに適用した場合,ゼロショットの対向ロバスト性も生み出す。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Are AI-Generated Text Detectors Robust to Adversarial Perturbations? [9.001160538237372]
AI生成テキスト(AIGT)の現在の検出器は、敵の摂動に対する堅牢性を欠いている。
本稿では,既存のAIGT検出手法の堅牢性について検討し,新しい検出器であるシームズキャリブレーション・リコンストラクション・ネットワーク(SCRN)を導入する。
SCRNは、テキストからのノイズの追加と除去に再構成ネットワークを使用し、局所的な摂動に対して堅牢な意味表現を抽出する。
論文 参考訳(メタデータ) (2024-06-03T10:21:48Z) - Few-Shot Adversarial Prompt Learning on Vision-Language Models [62.50622628004134]
知覚不能な逆境摂動に対するディープニューラルネットワークの脆弱性は、広く注目を集めている。
それまでの努力は、相手の視覚的特徴をテキストの監督と整合させることで、ゼロショットの敵の堅牢性を達成した。
本稿では、限られたデータで入力シーケンスを適応させることで、対向性を大幅に向上させる、数ショットの対向的プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:28:43Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z) - Improving adversarial robustness of deep neural networks by using
semantic information [17.887586209038968]
対人訓練は、敵の堅牢性を改善するための主要な方法であり、対人攻撃に対する第一線である。
本稿では,ネットワーク全体から,あるクラスに対応する決定境界に近い領域の重要部分に焦点を移す,対向ロバスト性の問題に対する新たな視点を提供する。
MNISTとCIFAR-10データセットの実験的結果は、この手法がトレーニングデータから非常に小さなデータセットを使用しても、敵の堅牢性を大幅に向上することを示している。
論文 参考訳(メタデータ) (2020-08-18T10:23:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。