論文の概要: Adversarial Detection with a Dynamically Stable System
- arxiv url: http://arxiv.org/abs/2411.06666v1
- Date: Mon, 11 Nov 2024 02:16:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:47.815716
- Title: Adversarial Detection with a Dynamically Stable System
- Title(参考訳): 動的安定系による逆検出
- Authors: Xiaowei Long, Jie Lin, Xiangyuan Yang,
- Abstract要約: 敵検出は、ターゲットモデルの分類を妨害するために生成される悪意ある敵例(AE)を識別し、拒否するように設計されている。
本研究では, 入力例の安定性に応じて, 通常の例から対角的例を効果的に検出できる動的安定システム(DSS)を提案する。
- 参考スコア(独自算出の注目度): 4.806505912512235
- License:
- Abstract: Adversarial detection is designed to identify and reject maliciously crafted adversarial examples(AEs) which are generated to disrupt the classification of target models. Presently, various input transformation-based methods have been developed on adversarial example detection, which typically rely on empirical experience and lead to unreliability against new attacks. To address this issue, we propose and conduct a Dynamically Stable System (DSS), which can effectively detect the adversarial examples from normal examples according to the stability of input examples. Particularly, in our paper, the generation of adversarial examples is considered as the perturbation process of a Lyapunov dynamic system, and we propose an example stability mechanism, in which a novel control term is added in adversarial example generation to ensure that the normal examples can achieve dynamic stability while the adversarial examples cannot achieve the stability. Then, based on the proposed example stability mechanism, a Dynamically Stable System (DSS) is proposed, which can utilize the disruption and restoration actions to determine the stability of input examples and detect the adversarial examples through changes in the stability of the input examples. In comparison with existing methods in three benchmark datasets(MNIST, CIFAR10, and CIFAR100), our evaluation results show that our proposed DSS can achieve ROC-AUC values of 99.83%, 97.81% and 94.47%, surpassing the state-of-the-art(SOTA) values of 97.35%, 91.10% and 93.49% in the other 7 methods.
- Abstract(参考訳): 敵検出は、ターゲットモデルの分類を妨害するために生成される悪意ある敵例(AE)を識別し、拒否するように設計されている。
現在、様々な入力変換に基づく手法が、通常、経験的経験に依存し、新しい攻撃に対する信頼性を損なう敵のサンプル検出に基づいて開発されている。
そこで本研究では, 動的安定システム(DSS)を提案し, 入力例の安定性に応じて, 通常の例から対角的な例を効果的に検出する。
特に,本論文では,Lyapunov 力学系の摂動過程として,通常例が動的安定性を達成できる一方で,逆例が動的安定性を達成できないように,新しい制御項を逆例生成に付加する例安定性機構を提案する。
そこで,本提案手法を応用した動的安定システム(DSS)を提案し,入力例の安定性を判定し,入力例の安定性の変化による逆例の検出を行う。
3つのベンチマークデータセット(MNIST, CIFAR10, CIFAR100)の既存手法と比較して, 提案したDSSは, 99.83%, 97.81%, 94.47%のROC-AUC値を達成し, 97.35%, 91.10%, 93.49%のSOTA値を上回った。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Adversarially Robust Out-of-Distribution Detection Using Lyapunov-Stabilized Embeddings [1.0260351016050424]
AROSは、ニューラル常微分方程式(NODE)とリャプノフ安定性定理を利用する新しいアプローチである。
調整された損失関数により、リアプノフ安定性理論を適用し、分布内(ID)とOODデータが安定平衡点に収束することを保証する。
このアプローチは任意の摂動入力を安定平衡に戻すことを奨励し、それによってモデルの対向摂動に対する堅牢性を高める。
論文 参考訳(メタデータ) (2024-10-14T17:22:12Z) - Improving Adversarial Training using Vulnerability-Aware Perturbation
Budget [7.430861908931903]
敵対的訓練(AT)は、敵対的攻撃に対するディープニューラルネットワーク(DNN)の堅牢性を効果的に改善する。
本稿では,AT の逆例に摂動境界を割り当てる簡易で安価な脆弱性認識型再重み付け関数を提案する。
実験の結果,提案手法は様々な攻撃に対してATアルゴリズムの頑健さを真に向上させることがわかった。
論文 参考訳(メタデータ) (2024-03-06T21:50:52Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Adversarially Robust Stability Certificates can be Sample-Efficient [14.658040519472646]
未知の非線形力学系に対する逆向きに頑健な安定性証明について考察する。
敵安定証明書を学習する統計的コストは,定型的安定性証明書を学習するのと同程度であることを示す。
論文 参考訳(メタデータ) (2021-12-20T17:23:31Z) - Imbalanced Sample Generation and Evaluation for Power System Transient
Stability Using CTGAN [26.531841171846505]
本稿では,CTGAN(Conditional Tabular Generative Adversarial Network)に基づく制御可能なサンプル生成フレームワークを提案する。
我々は複数の条件を1つの条件ベクトルに変換し、マルチ条件生成を可能にする。
IEEE 39-busシステムにおける実験結果から,提案手法は過渡安定サンプルを効果的にバランスさせることを示した。
論文 参考訳(メタデータ) (2021-12-16T12:38:53Z) - High-Robustness, Low-Transferability Fingerprinting of Neural Networks [78.2527498858308]
本稿では,ディープニューラルネットワークを効果的にフィンガープリントするための特性例を提案する。
モデルプルーニングに対するベースモデルへの高いロバスト性、無関係モデルへの低透過性などが特徴である。
論文 参考訳(メタデータ) (2021-05-14T21:48:23Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。