論文の概要: Online Adversarial Purification based on Self-Supervision
- arxiv url: http://arxiv.org/abs/2101.09387v1
- Date: Sat, 23 Jan 2021 00:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 16:19:24.136034
- Title: Online Adversarial Purification based on Self-Supervision
- Title(参考訳): 自己スーパービジョンに基づくオンライン対外浄化
- Authors: Changhao Shi, Chester Holtz and Gal Mishne
- Abstract要約: 自己監視型オンライン優先浄化(SOAP:Self-supervised Online Adrial Purification)は、自己監視型損失を使ってテスト時に敵の例を浄化する斬新な防御戦略である。
SOAPは、最先端の敵対的なトレーニングと浄化方法に対する競争力のある堅牢な精度を提供します。
私たちの知る限りでは、私たちの論文は、オンラインテストタイムの浄化に自己監視信号を使うというアイデアを一般化した最初の論文です。
- 参考スコア(独自算出の注目度): 6.821598757786515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are known to be vulnerable to adversarial examples,
where a perturbation in the input space leads to an amplified shift in the
latent network representation. In this paper, we combine canonical supervised
learning with self-supervised representation learning, and present
Self-supervised Online Adversarial Purification (SOAP), a novel defense
strategy that uses a self-supervised loss to purify adversarial examples at
test-time. Our approach leverages the label-independent nature of
self-supervised signals and counters the adversarial perturbation with respect
to the self-supervised tasks. SOAP yields competitive robust accuracy against
state-of-the-art adversarial training and purification methods, with
considerably less training complexity. In addition, our approach is robust even
when adversaries are given knowledge of the purification defense strategy. To
the best of our knowledge, our paper is the first that generalizes the idea of
using self-supervised signals to perform online test-time purification.
- Abstract(参考訳): 深層ニューラルネットワークは、入力空間の摂動が潜伏ネットワーク表現の増幅シフトにつながる敵の例に弱いことが知られている。
本稿では,自己教師型学習と自己教師型表現学習を併用し,自己教師型オンライン適応浄化(SOAP:Self-supervised Online Adversarial Purification)を提案する。
本手法は,自己教師付き信号のラベル非依存性を活用し,自己教師付きタスクに対する敵対的摂動に対応する。
SOAPは、最先端の敵のトレーニングと浄化方法に対して、競争力のある堅牢な精度をもたらします。
また, 敵に浄化防衛戦略の知識が与えられても, 本手法は堅牢である。
我々の知る限りでは、オンラインテストタイムの浄化にセルフ教師付き信号を用いるというアイデアを一般化した最初の論文である。
関連論文リスト
- Towards Improving Robustness Against Common Corruptions in Object
Detectors Using Adversarial Contrastive Learning [10.27974860479791]
本稿では, ニューラルネットワークの強靭性向上と, 対人攻撃と共通汚職の同時防止を目的とした, 革新的な対人的コントラスト学習フレームワークを提案する。
対戦型および実世界の条件下での性能向上に焦点を合わせることで、安全クリティカルなアプリケーションにおけるニューラルネットワークの堅牢性を高めることを目的としている。
論文 参考訳(メタデータ) (2023-11-14T06:13:52Z) - Language Guided Adversarial Purification [3.9931474959554496]
生成モデルを用いた対向浄化は、強い対向防御性能を示す。
新しいフレームワーク、Language Guided Adversarial Purification (LGAP)は、事前訓練された拡散モデルとキャプションジェネレータを利用する。
論文 参考訳(メタデータ) (2023-09-19T06:17:18Z) - Poisoning Network Flow Classifiers [10.055241826257083]
本稿では,ネットワークトラフィックフロー分類器に対する毒性攻撃,特にバックドア攻撃に焦点を当てた。
学習データのみを改ざんすることを相手の能力に制約するクリーンラベル中毒の難易度シナリオについて検討した。
本稿では, モデル解釈可能性を利用したトリガー製作戦略について述べる。
論文 参考訳(メタデータ) (2023-06-02T16:24:15Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Open-set Adversarial Defense with Clean-Adversarial Mutual Learning [93.25058425356694]
本稿では, オープンセット認識システムは, 対向サンプルに対して脆弱であることを示す。
これらの観測により,我々はオープンセット・ディフェンス(OSAD)機構の必要性を強調した。
本稿では,OSAD問題に対する解決策として,OSDN-CAML(Create-Adversarial Mutual Learning)を用いたオープンセット防衛ネットワークを提案する。
論文 参考訳(メタデータ) (2022-02-12T02:13:55Z) - SAGE: Intrusion Alert-driven Attack Graph Extractor [4.530678016396476]
攻撃グラフ(AG)は、サイバー敵がネットワークに侵入する経路を評価するために使用される。
我々は、専門家の事前知識を必要とせず、侵入警報によって観察された行動に基づいてAGを自動的に学習することを提案する。
論文 参考訳(メタデータ) (2021-07-06T17:45:02Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。