論文の概要: FeatureLens: A Highly Generalizable and Interpretable Framework for Detecting Adversarial Examples Based on Image Features
- arxiv url: http://arxiv.org/abs/2512.03625v1
- Date: Wed, 03 Dec 2025 10:02:34 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:09:14.544693
- Title: FeatureLens: A Highly Generalizable and Interpretable Framework for Detecting Adversarial Examples Based on Image Features
- Title(参考訳): FeatureLens: 画像の特徴に基づいて、敵対的な例を検出するための、高度に一般化可能な、解釈可能なフレームワーク
- Authors: Zhigang Yang, Yuan Liu, Jiawei Zhang, Puning Zhang, Xinqiang Ma,
- Abstract要約: FeatureLensは、画像機能の異常を精査するレンズとして機能する軽量フレームワークである。
クローズドセット評価において97.8%から99.75%の範囲で高い検出精度を達成する。
透明で効果的な敵防衛への実践的な道筋を提供する。
- 参考スコア(独自算出の注目度): 9.675883072911338
- License:
- Abstract: Although the remarkable performance of deep neural networks (DNNs) in image classification, their vulnerability to adversarial attacks remains a critical challenge. Most existing detection methods rely on complex and poorly interpretable architectures, which compromise interpretability and generalization. To address this, we propose FeatureLens, a lightweight framework that acts as a lens to scrutinize anomalies in image features. Comprising an Image Feature Extractor (IFE) and shallow classifiers (e.g., SVM, MLP, or XGBoost) with model sizes ranging from 1,000 to 30,000 parameters, FeatureLens achieves high detection accuracy ranging from 97.8% to 99.75% in closed-set evaluation and 86.17% to 99.6% in generalization evaluation across FGSM, PGD, CW, and DAmageNet attacks, using only 51 dimensional features. By combining strong detection performance with excellent generalization, interpretability, and computational efficiency, FeatureLens offers a practical pathway toward transparent and effective adversarial defense.
- Abstract(参考訳): 画像分類におけるディープニューラルネットワーク(DNN)の顕著なパフォーマンスにもかかわらず、敵攻撃に対する脆弱性は依然として重要な課題である。
既存の検出手法の多くは複雑で解釈が不十分なアーキテクチャに依存しており、解釈可能性や一般化を損なう。
これを解決するために、画像特徴の異常を精査するレンズとして機能する軽量フレームワークFeatureLensを提案する。
イメージ・フィーチャー・エクストラクタ(IFE)と浅い分類器(例えば、SVM、MLP、XGBoost)を1000から30,000のパラメータで構成すると、FeatureLensは、FGSM、PGD、CW、DAmageNet攻撃で、クローズドセット評価で97.8%から99.75%、一般化評価で86.17%から99.6%という高い検出精度が得られる。
強力な検出性能と優れた一般化、解釈可能性、計算効率を組み合わせることで、FeatureLensは透明で効果的な敵防衛への実践的な経路を提供する。
関連論文リスト
- FORCE: Transferable Visual Jailbreaking Attacks via Feature Over-Reliance CorrEction [82.6826848085638]
視覚的ジェイルブレイク攻撃は、洗練されたテキスト攻撃よりも簡単にオープンソースのMLLMを操作することができる。
これらの攻撃は、非常に限られたクロスモデル転送可能性を示し、クローズドソースMLLMの脆弱性を確実に特定することができない。
本稿では,FORCE(Feature Over-Reliance CorrEction)手法を提案する。
論文 参考訳(メタデータ) (2025-09-25T11:36:56Z) - Efficient Leaf Disease Classification and Segmentation using Midpoint Normalization Technique and Attention Mechanism [0.0]
画像前処理のための2段階変換手法であるミドルポイント正規化(MPN)を導入する。
分類パイプラインは、例外的なクラスバランスを維持しながら、93%の精度を達成する。
セグメンテーションタスクでは,MPNを付加した入力を用いて,U-Netアーキテクチャ内の同一の注意ブロックをシームレスに統合する。
論文 参考訳(メタデータ) (2025-05-27T15:14:04Z) - CAMME: Adaptive Deepfake Image Detection with Multi-Modal Cross-Attention [4.359154048799454]
マルチヘッド・クロスアテンション機構を用いて,視覚,テキスト,周波数領域の機能を統合するフレームワークであるCAMMEを提案する。
実験では、CAMMEは最先端の手法よりも優れており、自然のシーンでは12.56%、顔のディープフェイクでは13.25%改善している。
論文 参考訳(メタデータ) (2025-05-23T15:39:07Z) - CAE-Net: Generalized Deepfake Image Detection using Convolution and Attention Mechanisms with Spatial and Frequency Domain Features [0.6700983301090583]
クラス不均衡に対処し,アンサンブルベースのアーキテクチャであるemphCAE-Netを考案した。
私たちのアーキテクチャは、畳み込みと注目に基づくアンサンブルネットワークで構成されており、3つの異なるニューラルネットワークアーキテクチャを採用している。
EfficientNet B0アーキテクチャは90.79%、ConvNeXtアーキテクチャは89.49%、DeiTアーキテクチャは89.32%である。
論文 参考訳(メタデータ) (2025-02-15T06:02:11Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Towards Robust GAN-generated Image Detection: a Multi-view Completion
Representation [27.483031588071942]
GAN生成画像検出は、ディープフェイクのようなマシン合成画像操作の悪意ある使用に対する最初の防御線となっている。
本稿では,新しい多視点画像補完表現に基づくロバスト検出フレームワークを提案する。
我々は,6つのGANに対して異なる解像度でフレームワークの一般化能力を評価し,その幅広い摂動攻撃に対する堅牢性を評価する。
論文 参考訳(メタデータ) (2023-06-02T08:38:02Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。