論文の概要: Feature-Filter: Detecting Adversarial Examples through Filtering off
Recessive Features
- arxiv url: http://arxiv.org/abs/2107.09502v1
- Date: Mon, 19 Jul 2021 12:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 14:55:24.119229
- Title: Feature-Filter: Detecting Adversarial Examples through Filtering off
Recessive Features
- Title(参考訳): feature-filter: 劣性特徴のフィルタリングによる逆例の検出
- Authors: Hui Liu, Bo Zhao, Yuefeng Peng, Jiabao Guo, and Peng Liu
- Abstract要約: 敵対的な例は、画像認識における人間とディープニューラルネットワーク(DNN)の違いを示している。
本稿では,特徴フィルタと呼ばれるラベルのみの逆検出手法を提案する。
- 参考スコア(独自算出の注目度): 7.4664748244421775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are under threat from adversarial example
attacks. The adversary can easily change the outputs of DNNs by adding small
well-designed perturbations to inputs. Adversarial example detection is a
fundamental work for robust DNNs-based service. Adversarial examples show the
difference between humans and DNNs in image recognition. From a human-centric
perspective, image features could be divided into dominant features that are
comprehensible to humans, and recessive features that are incomprehensible to
humans, yet are exploited by DNNs. In this paper, we reveal that imperceptible
adversarial examples are the product of recessive features misleading neural
networks, and an adversarial attack is essentially a kind of method to enrich
these recessive features in the image. The imperceptibility of the adversarial
examples indicates that the perturbations enrich recessive features, yet hardly
affect dominant features. Therefore, adversarial examples are sensitive to
filtering off recessive features, while benign examples are immune to such
operation. Inspired by this idea, we propose a label-only adversarial detection
approach that is referred to as feature-filter. Feature-filter utilizes
discrete cosine transform to approximately separate recessive features from
dominant features, and gets a mutant image that is filtered off recessive
features. By only comparing DNN's prediction labels on the input and its
mutant, feature-filter can real-time detect imperceptible adversarial examples
at high accuracy and few false positives.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵のサンプル攻撃の脅威にさらされている。
敵は、少ない設計の摂動を入力に追加することで、DNNの出力を簡単に変更できる。
逆例検出は、堅牢なDNNベースのサービスの基本的な作業である。
逆の例は、画像認識における人間とDNNの違いを示している。
人間中心の観点では、画像の特徴は人間に理解しやすい支配的な特徴と、人間には理解できないがdnnによって悪用される劣性特徴に分けられる可能性がある。
本稿では, ニューラルネットワークを誤誘導する不感な特徴の積として, 知覚不能な敵の例を明らかにし, 本質的には, 画像中の不感な特徴を豊かにする手法の一種である。
逆説の例は、摂動は劣性特徴を富むが、支配的特徴にはほとんど影響しないことを示す。
したがって、敵対例は劣性特徴のフィルタリングに敏感であり、良性例はそのような手術に免疫がある。
このアイデアに触発されて,特徴フィルタと呼ばれるラベルのみの逆検出手法を提案する。
特徴フィルターは離散コサイン変換を利用して、劣性特徴と支配的特徴とをほぼ分離し、劣性特徴をフィルタリングするミュータント画像を得る。
入力とミュータントに関するDNNの予測ラベルを比較するだけで、特徴フィルタは知覚不能な敵のサンプルを高精度かつ少ない偽陽性でリアルタイムに検出することができる。
関連論文リスト
- CausAdv: A Causal-based Framework for Detecting Adversarial Examples [0.0]
畳み込みニューラルネットワーク(CNN)は、入力の逆方向の摂動に対して脆弱である。
これらの入力は、自然画像とほとんど区別できないように見えるが、CNNアーキテクチャによって誤って分類されている。
本稿では,反実的推論に基づく逆例検出のための因果的フレームワークCausAdvを提案する。
論文 参考訳(メタデータ) (2024-10-29T22:57:48Z) - F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - Exploring Robust Features for Improving Adversarial Robustness [11.935612873688122]
本研究では, 対向的摂動の影響を受けない頑健な特徴を探索し, モデルの対向的強靭性を改善する。
具体的には、ロバストでない特徴やドメイン固有の特徴からロバストな特徴を分離する機能障害モデルを提案する。
トレーニング済みのドメイン識別器は、クリーンな画像や敵の例から、ほぼ完璧にドメイン固有の特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-09T00:30:04Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage [35.810534649478576]
グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
GNNは、トレーニングデータから歴史的偏見を継承し、予測における差別的偏見をもたらす可能性がある。
本研究ではFairVGNN(Fair View Graph Neural Network)を提案する。
論文 参考訳(メタデータ) (2022-06-07T16:25:20Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Can contrastive learning avoid shortcut solutions? [88.249082564465]
暗黙的特徴修正(IFM)は、より広い種類の予測的特徴を捉えるために、対照的なモデルを導くために、正と負のサンプルを変更する方法である。
IFMは特徴抑制を低減し、その結果、視覚および医用画像タスクのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-06-21T16:22:43Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Defending Adversarial Attacks via Semantic Feature Manipulation [23.48763375455514]
本稿では,敵の事例を検出・浄化するために,FM(One-off and attack-agnostic Feature Manipulation)-Defenseを提案する。
特徴の操作を可能にするために、コンボ変分オートエンコーダを適用して、意味的特徴を明らかにする非絡み合った潜在符号を学習する。
実験により、FM-Defenseは、異なる最先端の敵攻撃によって生成されるほぼ100%の敵の例を検出できることが示された。
論文 参考訳(メタデータ) (2020-02-03T23:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。