論文の概要: Keep It Real: Challenges in Attacking Compression-Based Adversarial Purification
- arxiv url: http://arxiv.org/abs/2508.05489v1
- Date: Thu, 07 Aug 2025 15:24:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.923582
- Title: Keep It Real: Challenges in Attacking Compression-Based Adversarial Purification
- Title(参考訳): 心に留めておきなさい。圧縮による敵の浄化攻撃の課題
- Authors: Samuel Räber, Till Aczel, Andreas Plesner, Roger Wattenhofer,
- Abstract要約: 再構築された画像における高いリアリズムは、攻撃の難しさを著しく増大させる。
現実的かつ高忠実な再構築を実現できる圧縮モデルが,我々の攻撃に対して極めて耐性があることを実証した。
この研究は、将来の敵対的攻撃の大きな障害を強調し、現実主義を克服するより効果的な技術を開発することが、総合的なセキュリティ評価にとって重要な課題であることを示唆している。
- 参考スコア(独自算出の注目度): 18.95453617434051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous work has suggested that preprocessing images through lossy compression can defend against adversarial perturbations, but comprehensive attack evaluations have been lacking. In this paper, we construct strong white-box and adaptive attacks against various compression models and identify a critical challenge for attackers: high realism in reconstructed images significantly increases attack difficulty. Through rigorous evaluation across multiple attack scenarios, we demonstrate that compression models capable of producing realistic, high-fidelity reconstructions are substantially more resistant to our attacks. In contrast, low-realism compression models can be broken. Our analysis reveals that this is not due to gradient masking. Rather, realistic reconstructions maintaining distributional alignment with natural images seem to offer inherent robustness. This work highlights a significant obstacle for future adversarial attacks and suggests that developing more effective techniques to overcome realism represents an essential challenge for comprehensive security evaluation.
- Abstract(参考訳): 従来の研究は、画像の圧縮を損なうことによって、敵の摂動を防ぎ得ることを示唆していたが、包括的な攻撃評価は欠如している。
本稿では, 様々な圧縮モデルに対する強力なホワイトボックスと適応攻撃を構築し, 攻撃者にとって重要な課題を特定し, 再構成画像における高いリアリズムは攻撃の難しさを著しく向上させる。
複数の攻撃シナリオにまたがって厳密な評価を行うことで、現実的かつ高忠実な再構成を実現できる圧縮モデルが、我々の攻撃に対してかなり耐性があることを実証する。
対照的に、低現実性圧縮モデルは壊れることがある。
解析の結果,これは勾配マスキングによるものではないことが明らかとなった。
むしろ、自然画像との分布アライメントを維持する現実的な再構築は、本質的に堅牢性をもたらすように思われる。
この研究は、将来の敵対的攻撃の大きな障害を強調し、現実主義を克服するより効果的な技術を開発することが、総合的なセキュリティ評価にとって重要な課題であることを示唆している。
関連論文リスト
- Diffusion Attack: Leveraging Stable Diffusion for Naturalistic Image Attacking [6.761535322353205]
VR(Virtual Reality)では、敵の攻撃は依然として重大なセキュリティ上の脅威である。
身体的およびデジタル的敵攻撃のためのディープラーニングに基づくほとんどの手法は、攻撃性能の向上に重点を置いている。
本稿では,最小限の検出可能性と最大自然外観を示す自然スタイルのクラフト逆入力にスタイル転送を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:49:20Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - A Training-Free Defense Framework for Robust Learned Image Compression [48.41990144764295]
本研究では,学習した画像圧縮モデルの敵攻撃に対する堅牢性について検討する。
簡単な画像変換関数をベースとした無訓練防御手法を提案する。
論文 参考訳(メタデータ) (2024-01-22T12:50:21Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - CARNet: Collaborative Adversarial Resilience for Robust Underwater Image Enhancement and Perception [16.135354859458758]
我々は,CARNetと呼ばれる協調対向レジリエンスネットワークを導入し,水中画像の強調とそれに続く検出を行う。
本研究ではまず,水中画像から攻撃を分離する強力な知覚能力を持つ可逆ネットワークを導入する。
また,異なるタイプの攻撃に対するネットワークの堅牢性を高めるために,二段階攻撃最適化手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Reconstruction Distortion of Learned Image Compression with
Imperceptible Perturbations [69.25683256447044]
本稿では,学習画像圧縮(lic)の再構成品質を効果的に劣化させる攻撃手法を提案する。
我々は,Frobeniusノルムに基づく損失関数を導入して,元の画像と再構成された逆例との差を最大化することによって,逆例を生成する。
様々なlicモデルを用いてKodakデータセット上で実験を行った結果,有効性が確認された。
論文 参考訳(メタデータ) (2023-06-01T20:21:05Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Towards Robust Neural Image Compression: Adversarial Attack and Model
Finetuning [30.36695754075178]
ディープニューラルネットワークに基づく画像圧縮は広く研究されている。
そこで,本研究では,未知の逆方向の摂動を原画像に注入することにより,一般的な画像圧縮モデルの堅牢性を検討する。
幾何的自己アンサンブルに基づく事前処理や敵の訓練を含む様々な防衛戦略を、敵の攻撃に対して検討し、モデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-12-16T08:28:26Z) - Adversarial Purification through Representation Disentanglement [21.862799765511976]
ディープラーニングモデルは敵の例に弱いため、理解不能な間違いを犯す。
現在の防御法、特に浄化法は、自然画像の学習と復元によってノイズを除去する傾向がある。
本研究では, 自然画像の乱れと逆流を前処理防御として提示し, 新たな逆流浄化法を提案する。
論文 参考訳(メタデータ) (2021-10-15T01:45:31Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - On Success and Simplicity: A Second Look at Transferable Targeted
Attacks [6.276791657895803]
転送可能なターゲットアタックは、最適な転送可能性にゆっくりと収束し、より多くのイテレーションが与えられると大幅に改善されることを示す。
単にターゲットのロギットを最大化する攻撃は驚くほどうまく機能し、より複雑な損失を克服し、芸術の状態に匹敵するパフォーマンスを達成さえします。
論文 参考訳(メタデータ) (2020-12-21T09:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。