論文の概要: Towards Robust Neural Image Compression: Adversarial Attack and Model
Finetuning
- arxiv url: http://arxiv.org/abs/2112.08691v1
- Date: Thu, 16 Dec 2021 08:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 01:25:29.549723
- Title: Towards Robust Neural Image Compression: Adversarial Attack and Model
Finetuning
- Title(参考訳): ロバストなニューラルイメージ圧縮に向けて:敵対的攻撃とモデルファインタニング
- Authors: Tong Chen and Zhan Ma
- Abstract要約: 我々は,原画像に少量のノイズ摂動を注入することにより,敵対攻撃を行う。
次に、一般的な学習画像圧縮モデルを用いて、これらの逆例を符号化する。
実験では, 逆行性例の再建に強い歪みが認められた。
- 参考スコア(独自算出の注目度): 20.209647329095084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural network based image compression has been extensively studied.
Model robustness is largely overlooked, though it is crucial to service
enabling. We perform the adversarial attack by injecting a small amount of
noise perturbation to original source images, and then encode these adversarial
examples using prevailing learnt image compression models. Experiments report
severe distortion in the reconstruction of adversarial examples, revealing the
general vulnerability of existing methods, regardless of the settings used in
underlying compression model (e.g., network architecture, loss function,
quality scale) and optimization strategy used for injecting perturbation (e.g.,
noise threshold, signal distance measurement). Later, we apply the iterative
adversarial finetuning to refine pretrained models. In each iteration, random
source images and adversarial examples are mixed to update underlying model.
Results show the effectiveness of the proposed finetuning strategy by
substantially improving the compression model robustness. Overall, our
methodology is simple, effective, and generalizable, making it attractive for
developing robust learnt image compression solution. All materials have been
made publicly accessible at https://njuvision.github.io/RobustNIC for
reproducible research.
- Abstract(参考訳): ディープニューラルネットワークに基づく画像圧縮は広く研究されている。
モデルの堅牢性は概ね見過ごされているが、サービスの実現には不可欠である。
原画像に少量のノイズ摂動を注入して敵攻撃を行い、学習画像圧縮モデルを用いて敵の例を符号化する。
実験では, 従来の手法では, 圧縮モデル(ネットワークアーキテクチャ, 損失関数, 品質スケールなど) や摂動を注入する最適化戦略(ノイズ閾値, 信号距離測定など)によらず, 従来の手法の一般的な脆弱性を明らかにする。
その後、事前訓練されたモデルを洗練するために反復逆数微調整を適用する。
各イテレーションでは、ランダムなソースイメージと逆のサンプルが混合され、基礎となるモデルを更新する。
その結果,圧縮モデルの堅牢性を大幅に向上させることにより,提案手法の有効性を示した。
全体として、我々の手法は単純で効果的で一般化可能であり、堅牢な学習画像圧縮ソリューションを開発する上で魅力的である。
すべての資料が再現可能な研究のためにhttps://njuvision.github.io/RobustNICで公開されている。
関連論文リスト
- A Training-Free Defense Framework for Robust Learned Image Compression [48.41990144764295]
本研究では,学習した画像圧縮モデルの敵攻撃に対する堅牢性について検討する。
簡単な画像変換関数をベースとした無訓練防御手法を提案する。
論文 参考訳(メタデータ) (2024-01-22T12:50:21Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Machine Perception-Driven Image Compression: A Layered Generative
Approach [32.23554195427311]
階層型生成画像圧縮モデルを提案する。
タスクに依存しない学習に基づく圧縮モデルを提案し、様々な圧縮されたドメインベースの分析タスクを効果的にサポートする。
圧縮比、再構成画像品質、下流知覚性能の最良のバランス点を得るために、共同最適化スケジュールを採用する。
論文 参考訳(メタデータ) (2023-04-14T02:12:38Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - The Devil Is in the Details: Window-based Attention for Image
Compression [58.1577742463617]
既存の学習画像圧縮モデルは畳み込みニューラルネットワーク(CNN)に基づいている。
本稿では,複数種類の注意機構が局所特徴学習に与える影響について検討し,より単純で効果的なウィンドウベースの局所的注意ブロックを提案する。
提案されたウィンドウベースのアテンションは非常に柔軟で、CNNとTransformerモデルを強化するためのプラグイン・アンド・プレイコンポーネントとして機能する可能性がある。
論文 参考訳(メタデータ) (2022-03-16T07:55:49Z) - Applying Tensor Decomposition to image for Robustness against
Adversarial Attack [3.347059384111439]
小さな摂動を加えることで、ディープラーニングモデルを簡単に騙すことができる。
本稿では,逆例に対してモデルを守るためにテンソル分解を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-02-28T18:30:22Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。