論文の概要: Rectifying Adversarial Examples Using Their Vulnerabilities
- arxiv url: http://arxiv.org/abs/2601.00270v1
- Date: Thu, 01 Jan 2026 09:22:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.350771
- Title: Rectifying Adversarial Examples Using Their Vulnerabilities
- Title(参考訳): 脆弱性を利用した敵例の定式化
- Authors: Fumiya Morimoto, Ryuto Morita, Satoshi Ono,
- Abstract要約: 敵の例(AE)は、人間には検出できない最小限の摂動入力データであり、セキュリティに依存したアプリケーションに重大なリスクを及ぼす。
本研究では,元の入力の正しいラベルを推定するために,AEを補正する手法を提案する。
提案手法は,様々な攻撃手法を用いて生成したAEを補正する上で,一貫した性能を示すことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network-based classifiers are prone to errors when processing adversarial examples (AEs). AEs are minimally perturbed input data undetectable to humans posing significant risks to security-dependent applications. Hence, extensive research has been undertaken to develop defense mechanisms that mitigate their threats. Most existing methods primarily focus on discriminating AEs based on the input sample features, emphasizing AE detection without addressing the correct sample categorization before an attack. While some tasks may only require mere rejection on detected AEs, others necessitate identifying the correct original input category such as traffic sign recognition in autonomous driving. The objective of this study is to propose a method for rectifying AEs to estimate the correct labels of their original inputs. Our method is based on re-attacking AEs to move them beyond the decision boundary for accurate label prediction, effectively addressing the issue of rectifying minimally perceptible AEs created using white-box attack methods. However, challenge remains with respect to effectively rectifying AEs produced by black-box attacks at a distance from the boundary, or those misclassified into low-confidence categories by targeted attacks. By adopting a straightforward approach of only considering AEs as inputs, the proposed method can address diverse attacks while avoiding the requirement of parameter adjustments or preliminary training. Results demonstrate that the proposed method exhibits consistent performance in rectifying AEs generated via various attack methods, including targeted and black-box attacks. Moreover, it outperforms conventional rectification and input transformation methods in terms of stability against various attacks.
- Abstract(参考訳): ディープニューラルネットワークベースの分類器は、逆例(AE)を処理する際にエラーを起こしやすい。
AEは、人間が検出できない最小限の摂動入力データであり、セキュリティに依存したアプリケーションに重大なリスクを及ぼす。
そのため、脅威を緩和する防衛機構を開発するために広範な研究が進められている。
既存のほとんどの手法は、主に入力サンプルの特徴に基づいてAEを識別することに焦点を当てており、攻撃前の正しいサンプル分類に対処することなく、AE検出を強調する。
一部のタスクは検出されたAEを単に拒否するだけでよいが、他のタスクは、自動運転における交通標識認識のような正しい入力カテゴリを特定する必要がある。
本研究の目的は,AEを補正し,元の入力の正しいラベルを推定する手法を提案することである。
提案手法は, 精度の高いラベル予測のために, 決定境界を越えてAEを再攻撃し, ホワイトボックス攻撃法を用いて最小限認識可能なAEを補正する問題を効果的に解決するものである。
しかし、境界から離れたところでブラックボックス攻撃によって生成されたAEを効果的に修正するか、あるいは標的攻撃によって低信頼カテゴリに分類されたものを効果的に修正することが課題である。
AEを入力としてのみ考慮する簡単なアプローチを採用することで、パラメータ調整や予備訓練の要求を回避しつつ、多様な攻撃に対処することができる。
提案手法は,標的攻撃やブラックボックス攻撃など,様々な攻撃手法を用いて生成されたAEを補正する上で,一貫した性能を示すことを示す。
さらに、様々な攻撃に対する安定性の観点から、従来の整合・入力変換手法よりも優れている。
関連論文リスト
- Preliminary Investigation into Uncertainty-Aware Attack Stage Classification [81.28215542218724]
この研究は、不確実性の下での攻撃段階推論の問題に対処する。
Evidential Deep Learning (EDL) に基づく分類手法を提案し、ディリクレ分布のパラメータを可能な段階に出力することで予測の不確実性をモデル化する。
シミュレーション環境における予備実験により,提案モデルが精度良く攻撃の段階を推定できることが実証された。
論文 参考訳(メタデータ) (2025-08-01T06:58:00Z) - DataSentinel: A Game-Theoretic Detection of Prompt Injection Attacks [87.66245688589977]
LLM統合されたアプリケーションとエージェントは、インジェクション攻撃に弱い。
検出方法は、入力が注入プロンプトによって汚染されているかどうかを判定することを目的とする。
本研究では,迅速なインジェクション攻撃を検出するゲーム理論手法であるDataSentinelを提案する。
論文 参考訳(メタデータ) (2025-04-15T16:26:21Z) - Evolution-based Region Adversarial Prompt Learning for Robustness Enhancement in Vision-Language Models [52.8949080772873]
本稿では,ER-APTと呼ばれる進化型領域逆アプティブチューニング手法を提案する。
各トレーニングイテレーションでは、まず従来の勾配法を用いてAEを生成する。
次に、AEsを最適化するために、選択、突然変異、交差を含む遺伝的進化機構を適用する。
最終進化型AEは、従来の単点対向的な高速チューニングの代わりに、地域ベースの対向最適化を実現するために用いられる。
論文 参考訳(メタデータ) (2025-03-17T07:08:47Z) - EvolBA: Evolutionary Boundary Attack under Hard-label Black Box condition [0.0]
研究によると、ディープニューラルネットワーク(DNN)には、敵対的事例(AE)の誤認識につながる脆弱性がある。
本研究では, HL-BB条件下での共分散行列適応進化戦略 (CMA-ES) を用いて, AE を生成するための EvolBA という逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-07-02T13:12:52Z) - What You See is Not What the Network Infers: Detecting Adversarial
Examples Based on Semantic Contradiction [14.313178290347293]
敵対的な例(AE)は、ディープニューラルネットワーク(DNN)の安全クリティカルドメインへの応用に深刻な脅威をもたらす。
本稿では,AEの本質に基づいた新しいAE検出フレームワークを提案する。
ContraNetは、特にアダプティブアタックにおいて、既存のソリューションよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-01-24T13:15:31Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。