論文の概要: Quantifying the Risk of Transferred Black Box Attacks
- arxiv url: http://arxiv.org/abs/2511.05102v1
- Date: Fri, 07 Nov 2025 09:34:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.722123
- Title: Quantifying the Risk of Transferred Black Box Attacks
- Title(参考訳): 移動したブラックボックス攻撃のリスクの定量化
- Authors: Disesdi Susanna Cox, Niklas Bunzel,
- Abstract要約: ニューラルネットワークは、セキュリティ関連製品など、さまざまなアプリケーションに広く普及している。
本稿では,移動攻撃に対するレジリエンステストの複雑さについて検討する。
本稿では,CKA(Centered Kernel Alignment)の類似性に基づいて戦略的に選択された代理モデルを用いたレジリエンステストフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have become pervasive across various applications, including security-related products. However, their widespread adoption has heightened concerns regarding vulnerability to adversarial attacks. With emerging regulations and standards emphasizing security, organizations must reliably quantify risks associated with these attacks, particularly regarding transferred adversarial attacks, which remain challenging to evaluate accurately. This paper investigates the complexities involved in resilience testing against transferred adversarial attacks. Our analysis specifically addresses black-box evasion attacks, highlighting transfer-based attacks due to their practical significance and typically high transferability between neural network models. We underline the computational infeasibility of exhaustively exploring high-dimensional input spaces to achieve complete test coverage. As a result, comprehensive adversarial risk mapping is deemed impractical. To mitigate this limitation, we propose a targeted resilience testing framework that employs surrogate models strategically selected based on Centered Kernel Alignment (CKA) similarity. By leveraging surrogate models exhibiting both high and low CKA similarities relative to the target model, the proposed approach seeks to optimize coverage of adversarial subspaces. Risk estimation is conducted using regression-based estimators, providing organizations with realistic and actionable risk quantification.
- Abstract(参考訳): ニューラルネットワークは、セキュリティ関連製品など、さまざまなアプリケーションに広く普及している。
しかし、その普及により、敵の攻撃に対する脆弱性に対する懸念が高まった。
セキュリティを重視した新たな規制や標準によって、組織はこれらの攻撃に関連するリスクを確実に定量化する必要がある。
本稿では,移動攻撃に対するレジリエンステストの複雑さについて検討する。
我々の分析は特にブラックボックス回避攻撃に対処しており、ニューラルネットワークモデル間の実用的重要性と典型的には高い転送可能性のために、転送ベースの攻撃を強調している。
完全テストカバレッジを達成するために,高次元入力空間を徹底的に探索する計算不可能性について述べる。
その結果,包括的対人リスクマッピングは非現実的と考えられる。
この制限を緩和するために,CKA(Centered Kernel Alignment)の類似性に基づいて戦略的に選択された代理モデルを用いたレジリエンステストフレームワークを提案する。
対象モデルに対して高いCKA類似度と低いCKA類似度を示すサロゲートモデルを活用することにより, 提案手法は, 対向部分空間のカバレッジを最適化する。
リスク推定は回帰に基づく推定器を用いて行われ、組織に現実的で行動可能なリスク定量化を提供する。
関連論文リスト
- Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - Vulnerability Disclosure through Adaptive Black-Box Adversarial Attacks on NIDS [0.393259574660092]
本稿では,ブラックボックス攻撃に対する新たなアプローチを提案する。
システムアクセスを前提としたり、繰り返し探索に依存する従来の作業とは異なり、我々の手法はブラックボックスの制約を厳密に尊重する。
本稿では,変化点検出と因果解析を用いた適応的特徴選択手法を提案する。
論文 参考訳(メタデータ) (2025-06-25T16:10:20Z) - Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - On the Adversarial Robustness of Spiking Neural Networks Trained by Local Learning [13.504209310775188]
最近の研究では、敵対的な例としてスパイキングニューラルネットワーク(SNN)の脆弱性が示されている。
本稿では,敵インスタンスの転送可能性を活用するハイブリッド攻撃パラダイムを提案する。
提案手法は,既存の攻撃手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-11T18:07:59Z) - Addressing Key Challenges of Adversarial Attacks and Defenses in the Tabular Domain: A Methodological Framework for Coherence and Consistency [25.830427564563422]
CSAD(Class-Specific Anomaly Detection)は,新しい異常検出手法である。
CSADは, 広い良性分布ではなく, 予測されたクラス分布に対して, 対数サンプルを評価する。
本評価では, 異常検出率とSHAPに基づく評価を併用し, 対向検体品質のより包括的測定を行う。
論文 参考訳(メタデータ) (2024-12-10T09:17:09Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - MF-CLIP: Leveraging CLIP as Surrogate Models for No-box Adversarial Attacks [65.86360607693457]
敵に事前の知識がないノンボックス攻撃は、実際的な関連性にもかかわらず、比較的過小評価されている。
本研究は,大規模ビジョン・ランゲージ・モデル(VLM)をノンボックス・アタックの実行のための代理モデルとして活用するための体系的な研究である。
理論的および実証的な分析により,バニラCLIPを直接サロゲートモデルとして適用するための識別能力の不足に起因するno-boxアタックの実行に重要な制限があることが判明した。
MF-CLIP(MF-CLIP: MF-CLIP)はCLIPのサロゲートモデルとしての有効性を高める新しいフレームワークである。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。