論文の概要: T-MLA: A Targeted Multiscale Log--Exponential Attack Framework for Neural Image Compression
- arxiv url: http://arxiv.org/abs/2511.01079v1
- Date: Sun, 02 Nov 2025 21:06:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.055264
- Title: T-MLA: A Targeted Multiscale Log--Exponential Attack Framework for Neural Image Compression
- Title(参考訳): T-MLA: ニューラルネットワーク圧縮のためのマルチスケール対数攻撃フレームワーク
- Authors: Nikolay I. Kalmykov, Razan Dibo, Kaiyu Shen, Xu Zhonghan, Anh-Huy Phan, Yipeng Liu, Ivan Oseledets,
- Abstract要約: マルチスケール対数攻撃フレームワークであるT-MLAを導入することで,より高度な脆弱性のクラスを提案する。
我々のアプローチは、攻撃された画像や再構成された画像の質を直接ターゲットにすることで、ウェーブレット領域における敵の摂動を発生させる。
私たちの発見は、生成およびコンテンツ配信パイプラインの中核にある重要なセキュリティ欠陥を明らかにしました。
- 参考スコア(独自算出の注目度): 6.189705043887372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural image compression (NIC) has become the state-of-the-art for rate-distortion performance, yet its security vulnerabilities remain significantly less understood than those of classifiers. Existing adversarial attacks on NICs are often naive adaptations of pixel-space methods, overlooking the unique, structured nature of the compression pipeline. In this work, we propose a more advanced class of vulnerabilities by introducing T-MLA, the first targeted multiscale log--exponential attack framework. Our approach crafts adversarial perturbations in the wavelet domain by directly targeting the quality of the attacked and reconstructed images. This allows for a principled, offline attack where perturbations are strategically confined to specific wavelet subbands, maximizing distortion while ensuring perceptual stealth. Extensive evaluation across multiple state-of-the-art NIC architectures on standard image compression benchmarks reveals a large drop in reconstruction quality while the perturbations remain visually imperceptible. Our findings reveal a critical security flaw at the core of generative and content delivery pipelines.
- Abstract(参考訳): ニューラル画像圧縮(NIC)は、速度歪み性能の最先端技術となっているが、そのセキュリティ上の脆弱性は、分類器のそれよりもはるかに少ない。
既存のNICに対する敵攻撃は、しばしば、圧縮パイプラインのユニークな構造的性質を見越して、ピクセル空間の手法の素直な適応である。
本研究では,T-MLA(T-MLA)を導入し,より高度な脆弱性の分類を提案する。
我々のアプローチは、攻撃された画像や再構成された画像の質を直接ターゲットにすることで、ウェーブレット領域における敵の摂動を発生させる。
これにより、摂動は特定のウェーブレットサブバンドに戦略的に制限され、知覚のステルスを確保しながら歪みを最大化する、原則化されたオフライン攻撃が可能になる。
標準画像圧縮ベンチマークにおける複数の最先端NICアーキテクチャに対する広範囲な評価は、摂動が視覚的に受容できないままで、再構成品質が大幅に低下していることを明らかにする。
私たちの発見は、生成およびコンテンツ配信パイプラインの中核にある重要なセキュリティ欠陥を明らかにしました。
関連論文リスト
- Trans-defense: Transformer-based Denoiser for Adversarial Defense with Spatial-Frequency Domain Representation [11.290034765506816]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱であり、セキュリティクリティカルなシステムでの応用を制限する。
本稿では,攻撃に対処するための2段階の訓練手法を提案する。まず,Denoising Networkを訓練し,次に,Deep Classifierモデルを提案する。
本稿では,空間領域と周波数領域の両アプローチを統合して,画像に対する敵対的攻撃を防御する新しいデノベーション戦略を提案する。
論文 参考訳(メタデータ) (2025-10-31T07:29:50Z) - Deeply-Conditioned Image Compression via Self-Generated Priors [75.29511865838812]
我々は,自己生成前駆体(DCIC-sgp)を経由したDeeply-Conditioned Image Compression(Deeply-Conditioned Image Compression)という,機能的分解を前提としたフレームワークを提案する。
我々のフレームワークは、Kodak、CLIC、Tecnickデータセット上のVVCテストモデルVTM-12.1に対して、14.4%、15.7%、および15.1%のBDレートの大幅な削減を実現している。
論文 参考訳(メタデータ) (2025-10-28T14:04:19Z) - Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - Bitstream Collisions in Neural Image Compression via Adversarial Perturbations [2.0960189135529212]
本研究は、NIC-bitstream衝突における予期せぬ脆弱性を明らかにする。
この衝突の脆弱性は、特にセキュリティクリティカルなアプリケーションにおいて、NICの実用性に対する脅威となる。
単純で効果的な緩和法が提案されている。
論文 参考訳(メタデータ) (2025-03-25T16:29:17Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Reconstruction Distortion of Learned Image Compression with
Imperceptible Perturbations [69.25683256447044]
本稿では,学習画像圧縮(lic)の再構成品質を効果的に劣化させる攻撃手法を提案する。
我々は,Frobeniusノルムに基づく損失関数を導入して,元の画像と再構成された逆例との差を最大化することによって,逆例を生成する。
様々なlicモデルを用いてKodakデータセット上で実験を行った結果,有効性が確認された。
論文 参考訳(メタデータ) (2023-06-01T20:21:05Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z) - TensorShield: Tensor-based Defense Against Adversarial Attacks on Images [7.080154188969453]
近年の研究では、ディープニューラルネットワーク(DNN)のような機械学習アプローチが、敵の攻撃によって簡単に騙されることが示されている。
本稿では,テンソル分解法を前処理のステップとして利用して,高頻度摂動を著しく排除できる画像の低ランク近似を求める。
論文 参考訳(メタデータ) (2020-02-18T00:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。