論文の概要: Less is More: Feature Selection for Adversarial Robustness with
Compressive Counter-Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2106.10252v1
- Date: Fri, 18 Jun 2021 17:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:14:09.441296
- Title: Less is More: Feature Selection for Adversarial Robustness with
Compressive Counter-Adversarial Attacks
- Title(参考訳): less is more: 圧縮対敵攻撃による敵のロバスト性のための特徴選択
- Authors: Emre Ozfatura and Muhammad Zaid Hameed and Kerem Ozfatura and Deniz
Gunduz
- Abstract要約: 本稿では,敵攻撃を用いて重要な特徴を識別する新しい手法を提案する。
クリーンな精度とロバストな精度のギャップを橋渡しする特徴のサブセットが存在することを示す。
次に, 固有層におけるアクティベーション値の整合性を観察し, 特徴を抽出する。
- 参考スコア(独自算出の注目度): 7.5320132424481505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common observation regarding adversarial attacks is that they mostly give
rise to false activation at the penultimate layer to fool the classifier.
Assuming that these activation values correspond to certain features of the
input, the objective becomes choosing the features that are most useful for
classification. Hence, we propose a novel approach to identify the important
features by employing counter-adversarial attacks, which highlights the
consistency at the penultimate layer with respect to perturbations on input
samples. First, we empirically show that there exist a subset of features,
classification based in which bridge the gap between the clean and robust
accuracy. Second, we propose a simple yet efficient mechanism to identify those
features by searching the neighborhood of input sample. We then select features
by observing the consistency of the activation values at the penultimate layer.
- Abstract(参考訳): 敵対的攻撃に関する一般的な観察は、主に分類器を騙すために暗黙の層で偽のアクティベーションを引き起こすことである。
これらのアクティベーション値が入力の特定の特徴に対応すると仮定すると、目的は分類に最も有用な特徴を選択する。
そこで本研究では,ペナルティメート層における入力サンプルの摂動に対する一貫性を強調する対敵攻撃を用いて,重要な特徴を識別する新しい手法を提案する。
まず,クリーンとロバストの間のギャップを橋渡しする分類法として,特徴のサブセットが存在することを実証的に示す。
第2に,入力サンプルの近傍を探索して特徴を識別する簡易かつ効率的な機構を提案する。
次に、各層における活性化値の整合性を観察して特徴を選択する。
関連論文リスト
- Not All Diffusion Model Activations Have Been Evaluated as Discriminative Features [115.33889811527533]
拡散モデルは当初、画像生成のために設計されている。
近年の研究では、バックボーンの内部シグナルはアクティベーションと呼ばれ、様々な識別タスクの高密度な特徴として機能することが示されている。
論文 参考訳(メタデータ) (2024-10-04T16:05:14Z) - Comprehensive Attribution: Inherently Explainable Vision Model with Feature Detector [30.23453108681447]
Inherently explainable attribution methodはモデル行動の理解を高めることを目的としている。
これは、セレクタ(重要な特徴を特定するために属性マップを生成する)と予測器を協調的に訓練することで達成される。
マスクアウト領域における差別的特徴の存在を阻止する新たな目標を提案する。
我々のモデルは通常のブラックボックスモデルよりも高精度で正確な予測を行う。
論文 参考訳(メタデータ) (2024-07-27T17:45:20Z) - Greedy feature selection: Classifier-dependent feature selection via
greedy methods [2.4374097382908477]
本研究の目的は, グリージーな特徴選択に追随する特徴選択と呼ばれる, 分類タスクにおける特徴ランク付けのための新しいアプローチを導入することである。
このようなスキームの利点は、Vapnik-Chervonenkis(VC)次元やカーネルアライメントといったモデルキャパシティインジケータの観点から理論的に研究されている。
論文 参考訳(メタデータ) (2024-03-08T08:12:05Z) - Mitigating Feature Gap for Adversarial Robustness by Feature
Disentanglement [61.048842737581865]
逆方向の微調整法は, 逆方向の訓練方法で, 自然に事前訓練されたモデルを微調整することにより, 逆方向の強靭性を高めることを目的としている。
特徴ギャップの原因となる潜伏する特徴を明示的にモデル化し,取り除く,アンタングルメントに基づくアプローチを提案する。
3つのベンチマークデータセットに対する実証的な評価は、我々のアプローチが既存の逆方向の微調整法や逆方向のトレーニングベースラインを超えていることを示している。
論文 参考訳(メタデータ) (2024-01-26T08:38:57Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Reachable Sets of Classifiers and Regression Models: (Non-)Robustness
Analysis and Robust Training [1.0878040851638]
分類器と回帰モデルの両方の頑健性特性を解析・拡張する。
具体的には、(非)難易度を検証し、堅牢なトレーニング手順を提案し、我々のアプローチが敵攻撃よりも優れていることを示す。
第2に、ラベル付けされていない入力に対する信頼できない予測と信頼できない予測を区別し、各特徴が予測に与える影響を定量化し、特徴ランキングを計算する技術を提供する。
論文 参考訳(メタデータ) (2020-07-28T10:58:06Z) - Differentiable Unsupervised Feature Selection based on a Gated Laplacian [7.970954821067042]
本稿では,低周波特徴を優先するラプラシアンスコアと,特徴選択のためのゲーティング機構を組み合わせた識別可能な損失関数を提案する。
我々は,提案手法を数学的に動機付け,高雑音条件下では,全特徴集合ではなく,ゲート入力上でラプラシアンを計算することが重要であることを示す。
論文 参考訳(メタデータ) (2020-07-09T11:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。