論文の概要: Pulling Back the Curtain: Unsupervised Adversarial Detection via Contrastive Auxiliary Networks
- arxiv url: http://arxiv.org/abs/2502.09110v1
- Date: Thu, 13 Feb 2025 09:40:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:22.136331
- Title: Pulling Back the Curtain: Unsupervised Adversarial Detection via Contrastive Auxiliary Networks
- Title(参考訳): カーテンを巻き戻す:コントラスト補助ネットワークによる教師なしの敵検出
- Authors: Eylon Mizrahi, Raz Lapid, Moshe Sipper,
- Abstract要約: 本稿では,補助的特徴表現内での敵対行動を明らかにするために,補助的コントラストネットワーク(U-CAN)による教師なし敵検出を提案する。
本手法は、既存の非教師付き対向検出手法を超越し、4つの異なる攻撃方法に対して優れたF1スコアを達成している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deep learning models are widely employed in safety-critical applications yet remain susceptible to adversarial attacks -- imperceptible perturbations that can significantly degrade model performance. Conventional defense mechanisms predominantly focus on either enhancing model robustness or detecting adversarial inputs independently. In this work, we propose an Unsupervised adversarial detection via Contrastive Auxiliary Networks (U-CAN) to uncover adversarial behavior within auxiliary feature representations, without the need for adversarial examples. U-CAN is embedded within selected intermediate layers of the target model. These auxiliary networks, comprising projection layers and ArcFace-based linear layers, refine feature representations to more effectively distinguish between benign and adversarial inputs. Comprehensive experiments across multiple datasets (CIFAR-10, Mammals, and a subset of ImageNet) and architectures (ResNet-50, VGG-16, and ViT) demonstrate that our method surpasses existing unsupervised adversarial detection techniques, achieving superior F1 scores against four distinct attack methods. The proposed framework provides a scalable and effective solution for enhancing the security and reliability of deep learning systems.
- Abstract(参考訳): ディープラーニングモデルは、安全クリティカルなアプリケーションに広く採用されているが、敵攻撃の影響を受けやすいままである。
従来の防御機構は、モデルロバスト性を高めるか、敵の入力を独立して検出するかに重点を置いている。
本研究では,比較補助補助ネットワーク(U-CAN, Contrastive Auxiliary Networks)を用いた教師なし逆方向検出手法を提案する。
U-CANは、ターゲットモデルの選択された中間層に埋め込まれる。
これらの補助ネットワークはプロジェクション層とArcFaceベースの線形層から構成され、特徴表現を洗練し、良性入力と逆性入力をより効果的に区別する。
複数のデータセット (CIFAR-10, Mammals, およびImageNetのサブセット) とアーキテクチャ (ResNet-50, VGG-16, ViT) にまたがる総合的な実験により, 本手法が既存の教師なし敵検出技術を超え, 4つの異なる攻撃手法に対して優れたF1スコアを達成できることが実証された。
提案するフレームワークは,ディープラーニングシステムのセキュリティと信頼性を高めるための,スケーラブルで効果的なソリューションを提供する。
関連論文リスト
- HPAC-IDS: A Hierarchical Packet Attention Convolution for Intrusion Detection System [0.8437187555622164]
本研究は,階層構造と自己認識機構を活用した,悪意あるネットワークトラフィックに対する堅牢な検出システムを提案する。
提案システムは,所定の生ネットワークパケットをHPAC-IDSに供給される固定サイズのセグメントに分割するパケットセグメンタを含む。
CIC-IDS 2017データセットで実施された実験によると、システムは高い精度と低い偽陽性率を示す。
論文 参考訳(メタデータ) (2025-01-09T15:24:49Z) - Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Salient Feature Extractor for Adversarial Defense on Deep Neural
Networks [2.993911699314388]
モデルによって元のデータセットから学習された非可燃性特徴による逆転例の観察を動機として,salient feature (SF) と trivial feature (TF) の概念を提案する。
敵の攻撃から守るために, サルエント特徴抽出器 (SFE) という新しい検出・防御手法を考案した。
論文 参考訳(メタデータ) (2021-05-14T12:56:06Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。