論文の概要: Adversarial Purification with the Manifold Hypothesis
- arxiv url: http://arxiv.org/abs/2210.14404v4
- Date: Mon, 11 Dec 2023 21:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 21:06:16.985791
- Title: Adversarial Purification with the Manifold Hypothesis
- Title(参考訳): Manifold hypothesis による逆行性精製
- Authors: Zhaoyuan Yang, Zhiwei Xu, Jing Zhang, Richard Hartley, Peter Tu
- Abstract要約: この枠組みを用いた逆浄化法を開発した。
我々のアプローチは、攻撃者が防衛の存在を認識しているとしても、敵の堅牢性を提供することができる。
- 参考スコア(独自算出の注目度): 14.085013765853226
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we formulate a novel framework for adversarial robustness using
the manifold hypothesis. This framework provides sufficient conditions for
defending against adversarial examples. We develop an adversarial purification
method with this framework. Our method combines manifold learning with
variational inference to provide adversarial robustness without the need for
expensive adversarial training. Experimentally, our approach can provide
adversarial robustness even if attackers are aware of the existence of the
defense. In addition, our method can also serve as a test-time defense
mechanism for variational autoencoders.
- Abstract(参考訳): 本研究では, 多様体仮説を用いて, 対向ロバスト性に関する新しい枠組みを定式化する。
この枠組みは敵の例に対する防御に十分な条件を提供する。
この枠組みを用いた逆浄化法を開発した。
本手法は,高額な対向訓練を必要とせずに,多様体学習と変分推論を組み合わせることで,対向ロバスト性を提供する。
実験的に,攻撃者が防御の存在を認識している場合でも,敵の堅牢性を提供することができる。
また,本手法は可変オートエンコーダのテスト時間防御機構としても機能する。
関連論文リスト
- Test-time Adversarial Defense with Opposite Adversarial Path and High Attack Time Cost [5.197034517903854]
対向対向経路(OAP)に沿った拡散に基づく新しい対向防御法について検討する。
我々は、敵攻撃に抵抗するために、事前訓練されたモデルに差し込むことができる浄化器を提案する。
論文 参考訳(メタデータ) (2024-10-22T08:32:17Z) - Position: Towards Resilience Against Adversarial Examples [42.09231029292568]
我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 対向弾性のサブプロブレムを導入し, 連続適応ロバストネス(continuousal adapt robustness)と呼ぶ。
本研究では, 連続適応ロバストネスと, マルチアタックロバストネスと予期せぬアタックロバストネスの関連性を実証する。
論文 参考訳(メタデータ) (2024-05-02T14:58:44Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - AdvFAS: A robust face anti-spoofing framework against adversarial
examples [24.07755324680827]
本稿では,2つの組み合わされたスコアを利用して,正しく検出された顔画像と誤検出された顔画像とを正確に識別する,頑健な顔アンチスプーフィングフレームワークAdvFASを提案する。
実験では、さまざまなアタック、データセット、バックボーンなど、さまざまな設定でフレームワークの有効性を実証しています。
論文 参考訳(メタデータ) (2023-08-04T02:47:19Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Adversarial robustness via stochastic regularization of neural
activation sensitivity [24.02105949163359]
両防衛目標を同時に扱う新しい防衛機構を提案する。
損失面の勾配を平坦化し、逆例を見つけるのが難しくなる。
さらに、ジャコビアン正則化を利用して、正しく分類された入力から決定を遠ざける。
論文 参考訳(メタデータ) (2020-09-23T19:31:55Z) - Towards Robust Deep Learning with Ensemble Networks and Noisy Layers [2.2843885788439793]
画像分類型ネットワークにおける敵対的事例から保護する深層学習のためのアプローチを提案する。
1) 精度を犠牲にしてロバスト性を高めるメカニズム,2) 精度を向上するが、常にロバスト性を高めるわけではないメカニズムである。
論文 参考訳(メタデータ) (2020-07-03T06:04:02Z) - Defensive Few-shot Learning [77.82113573388133]
本稿では,防御的数発学習という新たな課題について検討する。
敵の攻撃に対して頑丈な数発のモデルを学習することを目的としている。
提案したフレームワークは、既存の数発のモデルを敵攻撃に対して効果的に堅牢にすることができる。
論文 参考訳(メタデータ) (2019-11-16T05:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。