論文の概要: Memory Defense: More Robust Classification via a Memory-Masking
Autoencoder
- arxiv url: http://arxiv.org/abs/2202.02595v1
- Date: Sat, 5 Feb 2022 16:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:14:05.048455
- Title: Memory Defense: More Robust Classification via a Memory-Masking
Autoencoder
- Title(参考訳): メモリ防御:メモリマスキングオートエンコーダによるよりロバストな分類
- Authors: Eashan Adhikarla (1), Dan Luo (1), Brian D. Davison (1) ((1) Lehigh
University)
- Abstract要約: 深層ニューラルネットワークは、誤分類を引き起こすために慎重に製作された画像の微小摂動の影響を受けやすい。
この課題に対処するために,メモリマスキングオートエンコーダを備えた拡張型分類器であるメモリディフェンスを提案する。
我々は、広く使われている4つの攻撃に対して、モデルの堅牢性をテストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many deep neural networks are susceptible to minute perturbations of images
that have been carefully crafted to cause misclassification. Ideally, a robust
classifier would be immune to small variations in input images, and a number of
defensive approaches have been created as a result. One method would be to
discern a latent representation which could ignore small changes to the input.
However, typical autoencoders easily mingle inter-class latent representations
when there are strong similarities between classes, making it harder for a
decoder to accurately project the image back to the original high-dimensional
space. We propose a novel framework, Memory Defense, an augmented classifier
with a memory-masking autoencoder to counter this challenge. By masking other
classes, the autoencoder learns class-specific independent latent
representations. We test the model's robustness against four widely used
attacks. Experiments on the Fashion-MNIST & CIFAR-10 datasets demonstrate the
superiority of our model. We make available our source code at GitHub
repository: https://github.com/eashanadhikarla/MemDefense
- Abstract(参考訳): 多くのディープニューラルネットワークは、誤分類を引き起こすために慎重に製作された画像の微小摂動に影響を受けやすい。
理想的には、堅牢な分類器は入力画像の小さなバリエーションに免疫を持ち、結果として多くの防御的アプローチが作成されている。
1つの方法は、入力の小さな変更を無視できる潜在表現を識別することである。
しかし、クラス間に強い類似性がある場合、典型的なオートエンコーダはクラス間潜在表現を容易に混合し、デコーダが元の高次元空間に画像を正確に投影することを難しくする。
この課題に対処するために,メモリマスキングオートエンコーダを備えた拡張型分類器であるメモリディフェンスを提案する。
他のクラスをマスキングすることで、autoencoderはクラス固有の独立した潜在表現を学習する。
我々は、広く使われている4つの攻撃に対して、モデルの堅牢性をテストする。
Fashion-MNIST と CIFAR-10 データセットの実験は、我々のモデルの優位性を実証している。
私たちはGitHubリポジトリでソースコードを公開しています。
関連論文リスト
- Neural Fingerprints for Adversarial Attack Detection [2.7309692684728613]
ディープラーニングモデルのよく知られた脆弱性は、敵の例に対する感受性である。
この問題に対処するために多くのアルゴリズムが提案され、一般に2つのカテゴリの1つに分類される。
我々は、攻撃者がネットワークと検出器の構成と重みを知っているホワイトボックス環境では、検出器を克服できると主張している。
この問題は、非常に優れたモデルでさえ安全性を確保するのに不十分なセキュリティアプリケーションで一般的である。
論文 参考訳(メタデータ) (2024-11-07T08:43:42Z) - Masked Autoencoders are Efficient Class Incremental Learners [64.90846899051164]
クラスインクリメンタルラーニング(CIL)は,過去の知識の破滅的な忘れを回避しつつ,新しいクラスを逐次学習することを目的としている。
本稿では,CIL の学習に Masked Autoencoders (MAEs) を用いることを提案する。
論文 参考訳(メタデータ) (2023-08-24T02:49:30Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Not All Image Regions Matter: Masked Vector Quantization for
Autoregressive Image Generation [78.13793505707952]
既存の自己回帰モデルは、まず画像再構成のための潜伏空間のコードブックを学習し、学習したコードブックに基づいて自己回帰的に画像生成を完了する2段階生成パラダイムに従っている。
そこで本研究では,Masked Quantization VAE (MQ-VAE) Stackモデルを用いた2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T02:15:53Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Denoised Smoothing: A Provable Defense for Pretrained Classifiers [101.67773468882903]
本稿では,事前訓練された画像分類器を$ell_p$の敵攻撃に対して確実に防御する手法を提案する。
この方法では、公開ビジョンAPIプロバイダやユーザは、トレーニング済みの非ロバスト分類サービスを、確実に堅牢なものにシームレスに変換することができる。
論文 参考訳(メタデータ) (2020-03-04T06:15:55Z) - Utilizing a null class to restrict decision spaces and defend against
neural network adversarial attacks [0.0]
ディープニューラルネットワークは敵の例に弱い。
本研究では、nullクラスを含むモデルをトレーニングする。
ここで提示されるヌルクラスの使用とトレーニングパラダイムは、敵攻撃に対する効果的な防御を提供する可能性がある。
論文 参考訳(メタデータ) (2020-02-24T05:47:08Z) - UnMask: Adversarial Detection and Defense Through Robust Feature
Alignment [12.245288683492255]
ディープラーニングモデルは、自動運転車から医療診断まで、幅広い影響の大きいセキュリティクリティカルなシステムに統合されている。
近年の研究では、これらのディープラーニングアーキテクチャの多くは敵の攻撃に弱いことが示されている。
我々は,ロバストな特徴アライメントに基づく敵検出・防御フレームワークUnMaskを開発した。
論文 参考訳(メタデータ) (2020-02-21T23:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。