論文の概要: Human Aligned Compression for Robust Models
- arxiv url: http://arxiv.org/abs/2504.12255v1
- Date: Wed, 16 Apr 2025 17:05:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:38:41.708644
- Title: Human Aligned Compression for Robust Models
- Title(参考訳): ロバストモデルのための人間の配向圧縮
- Authors: Samuel Räber, Andreas Plesner, Till Aczel, Roger Wattenhofer,
- Abstract要約: 画像モデルに対する敵対攻撃は、誤った予測を引き起こす知覚できない摂動を導入することによって、システムの堅牢性を脅かす。
本研究では, 従来のJPEGと比較した2つの学習モデル(HiFiCとELIC)を, 様々な品質レベルで比較した。
- 参考スコア(独自算出の注目度): 18.95453617434051
- License:
- Abstract: Adversarial attacks on image models threaten system robustness by introducing imperceptible perturbations that cause incorrect predictions. We investigate human-aligned learned lossy compression as a defense mechanism, comparing two learned models (HiFiC and ELIC) against traditional JPEG across various quality levels. Our experiments on ImageNet subsets demonstrate that learned compression methods outperform JPEG, particularly for Vision Transformer architectures, by preserving semantically meaningful content while removing adversarial noise. Even in white-box settings where attackers can access the defense, these methods maintain substantial effectiveness. We also show that sequential compression--applying rounds of compression/decompression--significantly enhances defense efficacy while maintaining classification performance. Our findings reveal that human-aligned compression provides an effective, computationally efficient defense that protects the image features most relevant to human and machine understanding. It offers a practical approach to improving model robustness against adversarial threats.
- Abstract(参考訳): 画像モデルに対する敵対攻撃は、誤った予測を引き起こす知覚できない摂動を導入することによって、システムの堅牢性を脅かす。
本研究では, 従来のJPEGと比較した2つの学習モデル(HiFiCとELIC)を, 様々な品質レベルで比較した。
ImageNetサブセットに関する実験により、学習された圧縮手法はJPEG、特にビジョントランスフォーマーアーキテクチャにおいて、対向ノイズを除去しながら意味的に意味のあるコンテンツを保存し、JPEGより優れていることが示された。
攻撃者が防御にアクセスできるホワイトボックスの設定であっても、これらの方法は相当な有効性を維持している。
また, 逐次圧縮・減圧ラウンドは, 分類性能を維持しつつ, 防御効果を著しく向上させることを示した。
この結果から,人間と機械の理解に最も関係した画像の特徴を保護し,効率よく効率よく画像の圧縮を行うことができることがわかった。
敵の脅威に対するモデル堅牢性を改善するための実践的なアプローチを提供する。
関連論文リスト
- Compression-Aware One-Step Diffusion Model for JPEG Artifact Removal [56.307484956135355]
CODiffはJPEGアーティファクト削除のための圧縮対応ワンステップ拡散モデルである。
明示的な学習と暗黙的な学習を組み合わせた二重学習戦略を提案する。
その結果,CODiffは定量的および視覚的品質指標の両方において,最近の先行手法を超越していることがわかった。
論文 参考訳(メタデータ) (2025-02-14T02:46:27Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - A Training-Free Defense Framework for Robust Learned Image Compression [48.41990144764295]
本研究では,学習した画像圧縮モデルの敵攻撃に対する堅牢性について検討する。
簡単な画像変換関数をベースとした無訓練防御手法を提案する。
論文 参考訳(メタデータ) (2024-01-22T12:50:21Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Cross Modal Compression: Towards Human-comprehensible Semantic
Compression [73.89616626853913]
クロスモーダル圧縮は、視覚データのためのセマンティック圧縮フレームワークである。
提案したCMCは,超高圧縮比で再現性の向上が期待できることを示す。
論文 参考訳(メタデータ) (2022-09-06T15:31:11Z) - Denial-of-Service Attacks on Learned Image Compression [18.84898685880023]
画像圧縮システムのロバスト性について検討し、入力画像の知覚不能な摂動が圧縮された潜伏者の摂動を著しく増加させる可能性があることを示す。
注意モジュールと基本因子化エントロピーモデルを組み込んだ新しいモデルを提案し,PSNR/bpp比と敵攻撃に対する堅牢性との間に有望なトレードオフをもたらす。
論文 参考訳(メタデータ) (2022-05-26T09:46:07Z) - Towards Robust Neural Image Compression: Adversarial Attack and Model
Finetuning [30.36695754075178]
ディープニューラルネットワークに基づく画像圧縮は広く研究されている。
そこで,本研究では,未知の逆方向の摂動を原画像に注入することにより,一般的な画像圧縮モデルの堅牢性を検討する。
幾何的自己アンサンブルに基づく事前処理や敵の訓練を含む様々な防衛戦略を、敵の攻撃に対して検討し、モデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-12-16T08:28:26Z) - Countering Adversarial Examples: Combining Input Transformation and
Noisy Training [15.561916630351947]
敵の例は、セキュリティに敏感な画像認識タスクに脅威をもたらす。
従来のJPEG圧縮はこれらの攻撃を防御するには不十分だが、画像の良さに突然の精度低下を引き起こす可能性がある。
我々は従来のJPEG圧縮アルゴリズムを改良し、NNにとってより好ましいものにしている。
論文 参考訳(メタデータ) (2021-06-25T02:46:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。