論文の概要: Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes
- arxiv url: http://arxiv.org/abs/2004.00306v1
- Date: Wed, 1 Apr 2020 09:31:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:36:50.027815
- Title: Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes
- Title(参考訳): ビット平面間の特徴整合性向上による対向ロバスト性の実現に向けて
- Authors: Sravanti Addepalli, Vivek B.S., Arya Baburaj, Gaurang Sriramanan, R.
Venkatesh Babu
- Abstract要約: 我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 51.31334977346847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As humans, we inherently perceive images based on their predominant features,
and ignore noise embedded within lower bit planes. On the contrary, Deep Neural
Networks are known to confidently misclassify images corrupted with
meticulously crafted perturbations that are nearly imperceptible to the human
eye. In this work, we attempt to address this problem by training networks to
form coarse impressions based on the information in higher bit planes, and use
the lower bit planes only to refine their prediction. We demonstrate that, by
imposing consistency on the representations learned across differently
quantized images, the adversarial robustness of networks improves significantly
when compared to a normally trained model. Present state-of-the-art defenses
against adversarial attacks require the networks to be explicitly trained using
adversarial samples that are computationally expensive to generate. While such
methods that use adversarial training continue to achieve the best results,
this work paves the way towards achieving robustness without having to
explicitly train on adversarial samples. The proposed approach is therefore
faster, and also closer to the natural learning process in humans.
- Abstract(参考訳): 人間として、我々は本質的にその特徴に基づいてイメージを知覚し、低ビット平面に埋め込まれたノイズを無視する。
逆にDeep Neural Networksは、人間の目にはほとんど知覚できない、細心の注意を払って作られた摂動で、画像の分類を確実に間違えることが知られている。
本研究では、高ビット平面の情報に基づいて粗い印象を形成するネットワークを訓練し、低ビット平面を用いて予測を洗練させることによってこの問題に対処する。
異なる量子化画像で学習した表現に一貫性を付与することで、通常訓練されたモデルと比較して、ネットワークの敵対的ロバスト性が大幅に向上することを示す。
現在、敵攻撃に対する最先端の防御は、ネットワークを計算的にコストがかかる敵のサンプルを使って明示的に訓練する必要がある。
本研究は, 対人訓練を併用した手法が最善を尽くす一方で, 対人サンプルを明示的に訓練することなく, 頑健性を達成するための道筋をたどるものである。
したがって、提案されたアプローチはより高速で、人間の自然学習プロセスに近い。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Addressing Mistake Severity in Neural Networks with Semantic Knowledge [0.0]
ほとんどの堅牢なトレーニング技術は、摂動入力のモデル精度を改善することを目的としている。
強靭性の代替形態として、ニューラルネットワークが挑戦的な状況で犯した誤りの深刻度を低減することを目的としている。
我々は、現在の対人訓練手法を活用して、トレーニングプロセス中に標的の対人攻撃を発生させる。
その結果,本手法は,標準モデルや逆トレーニングモデルと比較して,誤り重大性に対して優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-21T22:01:36Z) - Adversarially robust segmentation models learn perceptually-aligned
gradients [0.0]
逆学習されたセマンティックセグメンテーションネットワークを用いて画像のインペイントと生成を行うことができることを示す。
知覚的に整合した勾配は、ニューラルネットワークの学習された表現をよりよく理解し、ニューラルネットワークをより解釈しやすいものにする助けとなる、と我々は主張する。
論文 参考訳(メタデータ) (2022-04-03T16:04:52Z) - Leveraging Self-Supervision for Cross-Domain Crowd Counting [71.75102529797549]
混雑したシーンで人をカウントするための最先端の方法は、群衆密度を推定するために深いネットワークに依存します。
われわれのネットワークは、通常の画像から逆さまの実際の画像を認識できるように訓練し、その不確実性を予測する能力を組み込む。
このアルゴリズムは、推論時に余分な計算をせずに、最先端のクロスドメイン群をカウントするアルゴリズムを一貫して上回る。
論文 参考訳(メタデータ) (2021-03-30T12:37:55Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Robust Face Verification via Disentangled Representations [20.393894616979402]
顔認証のための頑健なアルゴリズムを導入し、同一人物か否かを判定する。
我々は,学習中に生成モデルを,対向雑音を除去するテスト時間浄化装置の代わりに,オンライン増強法として利用する。
逆行訓練と組み合わせることで,提案手法は弱内部解法と収束し,ホワイトボックスの物理的攻撃に対する評価において,最先端の工法よりもクリーンで堅牢な精度を有することを示す。
論文 参考訳(メタデータ) (2020-06-05T19:17:02Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。