論文の概要: Improving Adversarial Robustness via Phase and Amplitude-aware Prompting
- arxiv url: http://arxiv.org/abs/2502.03758v1
- Date: Thu, 06 Feb 2025 03:43:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:32:45.232720
- Title: Improving Adversarial Robustness via Phase and Amplitude-aware Prompting
- Title(参考訳): 位相・振幅対応プロンプトによる対向ロバスト性の向上
- Authors: Yibo Xu, Dawei Zhou, Decheng Liu, Nannan Wang,
- Abstract要約: 本稿では,深層ニューラルネットワークのための位相・振幅対応型プロンプティング(PAP)ディフェンスを提案する。
具体的には、各クラスに対して位相レベルおよび振幅レベルのプロンプトを構築し、モデルの頑健な性能に応じてプロンプトの重みを調整する。
テスト中、予測ラベルを用いて各画像に対するプロンプトを選択して、最終的な予測を得るためにモデルに入力されたインプット画像を取得する。
- 参考スコア(独自算出の注目度): 22.14124356160402
- License:
- Abstract: Deep neural networks are found to be vulnerable to adversarial noises. The prompt-based defense has been increasingly studied due to its high efficiency. However, existing prompt-based defenses mainly exploited mixed prompt patterns, where critical patterns closely related to object semantics lack sufficient focus. The phase and amplitude spectra have been proven to be highly related to specific semantic patterns and crucial for robustness. To this end, in this paper, we propose a Phase and Amplitude-aware Prompting (PAP) defense. Specifically, we construct phase-level and amplitude-level prompts for each class, and adjust weights for prompting according to the model's robust performance under these prompts during training. During testing, we select prompts for each image using its predicted label to obtain the prompted image, which is inputted to the model to get the final prediction. Experimental results demonstrate the effectiveness of our method.
- Abstract(参考訳): ディープニューラルネットワークは敵の雑音に弱いことがわかっている。
プロンプトベースの防衛は、その高い効率のために、ますます研究されている。
しかし、既存のプロンプトベースの防御は主に混合プロンプトパターンを利用しており、オブジェクトの意味論と密接に関連する重要なパターンは十分に焦点を合わせていない。
位相スペクトルと振幅スペクトルは、特定の意味的パターンと高い関係があることが証明されており、堅牢性に欠かせない。
そこで本研究では,位相・振幅対応型プロンプティング(PAP)防衛法を提案する。
具体的には、各クラスに対して位相レベルおよび振幅レベルのプロンプトを構築し、トレーニング中にこれらのプロンプトの下でモデルの頑健な性能に応じてプロンプトの重みを調整する。
テスト中、予測ラベルを用いて各画像に対するプロンプトを選択して、最終的な予測を得るためにモデルに入力されたインプット画像を取得する。
実験の結果,本手法の有効性が示された。
関連論文リスト
- PAFT: Prompt-Agnostic Fine-Tuning [11.834072667345957]
Prompt-Agnostic Fine-Tuning(PAFT)を提案する。
PAFTは2つの段階で機能する: 第一に、有意義で合成された候補プロンプトの多様なセットが構築される。
第二に、微調整の間、プロンプトはこのセットからランダムにサンプリングされ、動的トレーニングインプットを生成する。
論文 参考訳(メタデータ) (2025-02-18T13:46:47Z) - Towards bandit-based prompt-tuning for in-the-wild foundation agents [2.6731152954002924]
本稿では,タスク性能を向上させるための推論時間帯域幅に基づくプロンプトチューニングフレームワークを提案する。
実験の結果,バンディットに基づくプロンプトチューニングによる性能向上だけでなく,サンプルの複雑さ,拡張性,空間探索の迅速化などが示唆された。
論文 参考訳(メタデータ) (2025-02-10T11:20:10Z) - TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models [53.91006249339802]
視覚的対人攻撃に対するCLIPの推論ロバスト性を高めるため, TAPT(Test-Time Adversarial Prompt Tuning)と呼ばれる新しい防御手法を提案する。
TAPTは、CLIPの推論プロセスを堅牢化するために、防御的バイモーダル(テキストと視覚)のプロンプトを学習するテストタイムディフェンス手法である。
我々は、ImageNetなど10のゼロショットデータセットを含む11のベンチマークデータセットに対するTAPTの有効性を評価する。
論文 参考訳(メタデータ) (2024-11-20T08:58:59Z) - DAT: Improving Adversarial Robustness via Generative Amplitude Mix-up in Frequency Domain [23.678658814438855]
敵の攻撃からディープニューラルネットワーク(DNN)を保護するために、敵の訓練(AT)が開発された。
近年の研究では、敵対的攻撃がサンプルの周波数スペクトルの位相内のパターンに不均等に影響を及ぼすことが示されている。
モデルの堅牢性向上と位相パターンの維持のトレードオフを改善するために, 最適化された逆振幅発生器 (AAG) を提案する。
論文 参考訳(メタデータ) (2024-10-16T07:18:36Z) - Hard Prompts Made Interpretable: Sparse Entropy Regularization for Prompt Tuning with RL [29.01858866450715]
ソフトQ-ラーニングを利用した最適なプロンプトを見つけることを目的としたRLPromptを提案する。
結果は有望な結果を示す一方で,プロンプトが不自然に現れることがしばしばあり,その解釈可能性を妨げることが確認されている。
この制限をスパルス・ツァリスエントロピー正規化(英語版)を用いて解決する。
論文 参考訳(メタデータ) (2024-07-20T03:10:19Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - High-Fidelity Speech Synthesis with Minimal Supervision: All Using
Diffusion Models [56.00939852727501]
最小教師付き音声合成は、2種類の離散音声表現を組み合わせることでTSを分離する。
非自己回帰フレームワークは、制御可能性を高め、持続拡散モデルは、多様化された韻律表現を可能にする。
論文 参考訳(メタデータ) (2023-09-27T09:27:03Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - On the Role of Attention in Prompt-tuning [90.97555030446563]
本研究では,一層アテンションアーキテクチャのプロンプトチューニングについて検討し,文脈混合モデルについて検討する。
ソフトマックス・プロンプト・アテンションは, ソフトマックス・自己アテンションやリニア・プロンプト・アテンションよりも明らかに表現力が高いことを示す。
また、実際のデータセットに関する理論的洞察を検証し、モデルが文脈関連情報にどのように対応できるかを示す実験も提供する。
論文 参考訳(メタデータ) (2023-06-06T06:23:38Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。