論文の概要: Localizing Adversarial Attacks To Produces More Imperceptible Noise
- arxiv url: http://arxiv.org/abs/2509.22710v1
- Date: Tue, 23 Sep 2025 22:33:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.814939
- Title: Localizing Adversarial Attacks To Produces More Imperceptible Noise
- Title(参考訳): 敵の攻撃を局所化し、より知覚不能な騒音を発生させる
- Authors: Pavan Reddy, Aditya Sanjay Gujral,
- Abstract要約: 本研究は, FGSM, PGD, C&Wを含む, 広く利用されている手法における局所的敵攻撃を系統的に評価する。
局所攻撃は、特定の領域に雑音を拘束する二値マスクを導入することで、平均画素摂動を著しく低くし、ピーク信号対雑音比(PSNR)を高くし、グローバルアタックと比較して構造類似度指数(SSIM)を改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks in machine learning traditionally focus on global perturbations to input data, yet the potential of localized adversarial noise remains underexplored. This study systematically evaluates localized adversarial attacks across widely-used methods, including FGSM, PGD, and C&W, to quantify their effectiveness, imperceptibility, and computational efficiency. By introducing a binary mask to constrain noise to specific regions, localized attacks achieve significantly lower mean pixel perturbations, higher Peak Signal-to-Noise Ratios (PSNR), and improved Structural Similarity Index (SSIM) compared to global attacks. However, these benefits come at the cost of increased computational effort and a modest reduction in Attack Success Rate (ASR). Our results highlight that iterative methods, such as PGD and C&W, are more robust to localization constraints than single-step methods like FGSM, maintaining higher ASR and imperceptibility metrics. This work provides a comprehensive analysis of localized adversarial attacks, offering practical insights for advancing attack strategies and designing robust defensive systems.
- Abstract(参考訳): 機械学習における敵対的攻撃は、伝統的に入力データに対するグローバルな摂動に焦点を当ててきたが、局所的な敵対的ノイズの可能性はまだ探索されていない。
本研究は, FGSM, PGD, C&Wを含む広範に使用されている手法における局所的敵攻撃を系統的に評価し, その有効性, 受容性, 計算効率を定量的に評価する。
局所攻撃は、特定の領域に雑音を拘束する二値マスクを導入することで、平均画素摂動を著しく低くし、ピーク信号対雑音比(PSNR)を高くし、グローバルアタックと比較して構造類似度指数(SSIM)を改善した。
しかし、これらの利点は、計算努力の増加とアタック成功率(ASR)の緩やかな削減のコストが伴う。
その結果, PGD や C&W のような反復的手法は FGSM のような単一ステップの手法よりも局所化制約に頑健であり, ASR と非受容性の測定値を維持することが示唆された。
この研究は、局所的な敵攻撃を包括的に分析し、攻撃戦略を前進させ、堅牢な防御システムを設計するための実践的な洞察を提供する。
関連論文リスト
- Generating Transferrable Adversarial Examples via Local Mixing and Logits Optimization for Remote Sensing Object Recognition [5.6536225368328274]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
本稿では,局所混合とロジット最適化による新しいフレームワークを提案する。
ブラックボックス攻撃の成功率の平均改善率は17.28%である。
論文 参考訳(メタデータ) (2025-09-09T08:20:19Z) - GRILL: Gradient Signal Restoration in Ill-Conditioned Layers to Enhance Adversarial Attacks on Autoencoders [4.046100165562807]
GRILLは、不条件層における勾配信号を復元し、より効果的なノルムバウンド攻撃を可能にする手法である。
本手法は敵攻撃の有効性を著しく向上させ,より厳密なAEロバスト性評価を可能にした。
論文 参考訳(メタデータ) (2025-05-06T15:52:14Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - Hierarchical Local-Global Feature Learning for Few-shot Malicious Traffic Detection [6.118242543398087]
悪意あるネットワーク攻撃は、ますます頻繁で洗練されたものになりつつある。
ルールベースや機械学習ベースのアプローチを含む従来の検出方法は、出現する脅威を正確に識別するのに苦労する。
我々は,新しい階層的な数ショットの悪意のあるトラフィック検出フレームワークであるHLoGを提案する。
論文 参考訳(メタデータ) (2025-04-01T14:56:44Z) - Correlation Analysis of Adversarial Attack in Time Series Classification [6.117704456424016]
本研究では,時系列分類モデルの攻撃に対する脆弱性について検討した。
攻撃の有効性を高めるため、正規化技術とノイズ導入が示されている。
世界情報を優先するように設計されたモデルは、敵の操作に対する抵抗が大きいことが判明した。
論文 参考訳(メタデータ) (2024-08-21T01:11:32Z) - Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - SWAP: Exploiting Second-Ranked Logits for Adversarial Attacks on Time
Series [11.356275885051442]
時系列分類(TSC)は、様々な領域において重要な課題となっている。
ディープニューラルモデルは、TSCタスクにおいて優れたパフォーマンスを示している。
TSCモデルは敵攻撃に対して脆弱である。
TSCモデルの新たな攻撃手法であるSWAPを提案する。
論文 参考訳(メタデータ) (2023-09-06T06:17:35Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。