論文の概要: Robust Evaluation of Diffusion-Based Adversarial Purification
- arxiv url: http://arxiv.org/abs/2303.09051v1
- Date: Thu, 16 Mar 2023 02:47:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 17:04:46.653773
- Title: Robust Evaluation of Diffusion-Based Adversarial Purification
- Title(参考訳): 拡散型逆境浄化のロバスト評価
- Authors: Minjong Lee, Dongwoo Kim
- Abstract要約: 拡散法に基づく浄化法は,試験時間における入力データ点からの逆効果を除去することを目的としている。
白箱攻撃はしばしば浄化の堅牢性を測定するために使用される。
本稿では,最先端の対人訓練アプローチに対する競争結果を示す新しい浄化戦略を提案する。
- 参考スコア(独自算出の注目度): 2.218878599493004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We question the current evaluation practice on diffusion-based purification
methods. Diffusion-based purification methods aim to remove adversarial effects
from an input data point at test time. The approach gains increasing attention
as an alternative to adversarial training due to the disentangling between
training and testing. Well-known white-box attacks are often employed to
measure the robustness of the purification. However, it is unknown whether
these attacks are the most effective for the diffusion-based purification since
the attacks are often tailored for adversarial training. We analyze the current
practices and provide a new guideline for measuring the robustness of
purification methods against adversarial attacks. Based on our analysis, we
further propose a new purification strategy showing competitive results against
the state-of-the-art adversarial training approaches.
- Abstract(参考訳): 拡散型浄化法における現状の評価実践に疑問を呈する。
拡散法に基づく浄化法は,テスト時に入力データポイントから逆効果を取り除くことを目的としている。
このアプローチは、トレーニングとテストの切り離しによる敵のトレーニングに代わるものとして、注目を集める。
良く知られたホワイトボックス攻撃は、浄化の堅牢性を測定するためにしばしば用いられる。
しかし,これらの攻撃が拡散による浄化に最も有効であるかどうかは不明である。
本稿は,現在の実践を分析し,敵の攻撃に対する浄化法のロバスト性を評価するための新しいガイドラインを提供する。
本稿の分析に基づいて,最先端の対向訓練アプローチに対する競争結果を示す新たな浄化戦略を提案する。
関連論文リスト
- Adversarial Text Purification: A Large Language Model Approach for
Defense [25.041109219049442]
敵の浄化は、敵の攻撃に対して分類器を保護するための防御機構である。
そこで本稿では,大規模言語モデルの生成能力を生かした,新たな逆文清浄法を提案する。
提案手法は,様々な分類器に対して顕著な性能を示し,攻撃時の精度を平均65%以上向上させる。
論文 参考訳(メタデータ) (2024-02-05T02:36:41Z) - Scalable Ensemble-based Detection Method against Adversarial Attacks for
speaker verification [73.30974350776636]
本稿では,一貫した枠組みにおける主流浄化手法を包括的に比較する。
本稿では, 検出のための高度浄化モジュールを組み込んだ, 簡単に追従できるアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T03:04:05Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Adversarial Purification for Data-Driven Power System Event Classifiers
with Diffusion Models [0.8848340429852071]
ファサー計測ユニット(PMU)のグローバル展開は、電力システムのリアルタイム監視を可能にする。
近年の研究では、機械学習に基づく手法が敵の攻撃に弱いことが示されている。
本稿では,拡散モデルに基づく効果的な対向的浄化手法を提案する。
論文 参考訳(メタデータ) (2023-11-13T06:52:56Z) - Purify++: Improving Diffusion-Purification with Advanced Diffusion
Models and Control of Randomness [22.87882885963586]
敵攻撃に対する防御はAIの安全性にとって重要である。
敵の浄化は、敵の攻撃を適切な前処理で防御するアプローチのファミリーである。
そこで我々は,新たな拡散浄化アルゴリズムであるPurify++を提案する。
論文 参考訳(メタデータ) (2023-10-28T17:18:38Z) - DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - Language Guided Adversarial Purification [3.9931474959554496]
生成モデルを用いた対向浄化は、強い対向防御性能を示す。
新しいフレームワーク、Language Guided Adversarial Purification (LGAP)は、事前訓練された拡散モデルとキャプションジェネレータを利用する。
論文 参考訳(メタデータ) (2023-09-19T06:17:18Z) - Unsupervised Adversarial Detection without Extra Model: Training Loss
Should Change [24.76524262635603]
従来の敵の訓練と教師付き検出へのアプローチは、攻撃型の事前知識とラベル付きトレーニングデータへのアクセスに依存している。
そこで本稿では,敵攻撃の事前知識を必要とせずに,不要な特徴とそれに対応する検出方法を新たに提案する。
提案手法は全攻撃タイプで有効であり, 偽陽性率は特定の攻撃タイプに優れた手法よりさらに優れている。
論文 参考訳(メタデータ) (2023-08-07T01:41:21Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。