論文の概要: Beyond Pretrained Features: Noisy Image Modeling Provides Adversarial
Defense
- arxiv url: http://arxiv.org/abs/2302.01056v1
- Date: Thu, 2 Feb 2023 12:37:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 14:01:17.441984
- Title: Beyond Pretrained Features: Noisy Image Modeling Provides Adversarial
Defense
- Title(参考訳): 事前訓練された機能を超えて:ノイズ画像モデリングは敵の防御を提供する
- Authors: Zunzhi You, Daochang Liu, Chang Xu
- Abstract要約: Masked Image Modelingは、自己教師付き視覚表現学習のための一般的なフレームワークである。
ノイズの多い画像モデリングは、優れた事前訓練された視覚的特徴を提供するだけでなく、下流モデルに対する効果的な敵防御も提供する。
- 参考スコア(独自算出の注目度): 21.005314829099323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Masked Image Modeling (MIM) has been a prevailing framework for
self-supervised visual representation learning. Within the
pretraining-finetuning paradigm, the MIM framework trains an encoder by
reconstructing masked image patches with the help of a decoder which would be
abandoned when the encoder is used for finetuning. Despite its state-of-the-art
performance on clean images, MIM models are vulnerable to adversarial attacks,
limiting its real-world application, and few studies have focused on this
issue. In this paper, we have discovered that noisy image modeling (NIM), a
variant of MIM that uses denoising as the pre-text task, provides not only good
pretrained visual features, but also effective adversarial defense for
downstream models. To achieve a better accuracy-robustness trade-off, we
further propose to sample the hyperparameter that controls the reconstruction
difficulty from random distributions instead of setting it globally, and
fine-tune downstream networks with denoised images. Experimental results
demonstrate that our pre-trained denoising autoencoders are effective against
different white-box, gray-box, and black-box attacks without being trained with
adversarial images, while not harming the clean accuracy of fine-tuned models.
Source code and models will be made available.
- Abstract(参考訳): Masked Image Modeling (MIM) は、自己教師型視覚表現学習において一般的なフレームワークである。
トレーニング済みのファインタニングパラダイムの中で、MIMフレームワークは、エンコーダを使用して微調整を行う際に放棄されるデコーダの助けを借りて、マスク付きイメージパッチを再構築することでエンコーダを訓練する。
クリーンな画像に対する最先端のパフォーマンスにもかかわらず、MIMモデルは敵の攻撃に対して脆弱であり、実際のアプリケーションを制限する。
本稿では,プリテキストタスクとしてデノイジングを使用するmimの変種であるノイズ画像モデリング(nim)が,事前学習された視覚機能だけでなく,下流モデルの効果的な防御機能も提供することを発見した。
さらに,より高精度で精度のよいトレードオフを実現するために,グローバルに設定する代わりに,ランダム分布から再構成困難を制御するハイパーパラメータと,復号化画像を用いたダウンストリームネットワークの微細化を提案する。
実験結果から,事前学習したデノナイジングオートエンコーダは,異なるホワイトボックス,グレーボックス,ブラックボックスアタックに対して,敵画像のトレーニングを行わずに有効であり,微調整モデルのクリーンな精度を損なわないことが示された。
ソースコードとモデルは利用可能になる。
関連論文リスト
- Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - MIMIR: Masked Image Modeling for Mutual Information-based Adversarial
Robustness [31.76309077313509]
視覚変換器(ViT)は畳み込みニューラルネットワーク(CNN)と比較して様々なタスクにおいて優れた性能を発揮する
本報告では, マスク付き画像モデリングを事前学習時に活用することにより, 異なる対角的訓練手法を構築することを目的とした, 新たな防御手法MIMIRを提案する。
以上の結果から,MIMIRではCIFAR-10では4.19%,ImageNet-1Kでは5.52%の精度向上が見られた。
論文 参考訳(メタデータ) (2023-12-08T10:50:02Z) - Stable Unlearnable Example: Enhancing the Robustness of Unlearnable
Examples via Stable Error-Minimizing Noise [31.586389548657205]
データにある種の知覚不能ノイズを加えることにより、モデルの一般化性能を著しく低下させる非学習不可能な例を提案する。
本稿では,時間を要する対向的摂動ではなく,ランダムな摂動に対する防御音を訓練する安定型誤り最小化ノイズ(SEM)を導入する。
SEMは、CIFAR-10、CIFAR-100、ImageNet Subset上で、最先端の新たなパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-22T01:43:57Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - Learning Provably Robust Estimators for Inverse Problems via Jittering [51.467236126126366]
簡単な正規化手法であるジッタリングが,逆問題に対する最悪ケース頑健な推定器の学習に有効かどうかを検討する。
ジッタリングは最悪の場合のロバスト性を大幅に向上させるが,デノイング以上の逆問題に最適であることを示す。
論文 参考訳(メタデータ) (2023-07-24T14:19:36Z) - Evaluating Similitude and Robustness of Deep Image Denoising Models via
Adversarial Attack [60.40356882897116]
ディープニューラルネットワーク(DNN)は、従来の画像復調アルゴリズムよりも優れたパフォーマンスを示している。
本稿では,現在のディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディナイジング・PGD(Denoising-PGD)と名づけられた敵攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-06-28T09:30:59Z) - Wavelets Beat Monkeys at Adversarial Robustness [0.8702432681310401]
物理的にインスピレーションを受けた構造が、これまで人間の大脳皮質を巧みに模倣してしか考えられていなかったロバスト性に対する新たな洞察をいかに生み出すかを示す。
我々の研究は、物理的にインスピレーションを受けた構造が、これまで人間の大脳皮質を巧みに模倣してしか考えられていなかった堅牢性に対する新たな洞察をいかに生み出すかを示している。
論文 参考訳(メタデータ) (2023-04-19T03:41:30Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - DIMBA: Discretely Masked Black-Box Attack in Single Object Tracking [5.672132510411465]
敵攻撃は、CNNベースのモデルに、人間の知覚できない入力を巧みに操作することで、誤った出力を強制することができる。
ブラックボックス設定下での単一物体追跡のためのノイズを発生させる新しい逆攻撃法を提案する。
我々の手法は、競争力や攻撃性能を改善するために、ビデオのフレーム上でのクエリを少なくする。
論文 参考訳(メタデータ) (2022-07-17T00:17:40Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。