論文の概要: Optimal Zero-Shot Detector for Multi-Armed Attacks
- arxiv url: http://arxiv.org/abs/2402.15808v1
- Date: Sat, 24 Feb 2024 13:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 16:51:49.111583
- Title: Optimal Zero-Shot Detector for Multi-Armed Attacks
- Title(参考訳): 多要素攻撃に対する最適ゼロショット検出器
- Authors: Federica Granese, Marco Romanelli, Pablo Piantanida
- Abstract要約: 本稿では,悪意あるアクターが多武器攻撃戦略を用いてデータサンプルを操作するシナリオについて考察する。
私たちの中心的な目的は、入力の変更を検出してデータを保護することです。
我々はこれらの検出器による決定を最適に集約する革新的な情報理論防衛手法を導出する。
- 参考スコア(独自算出の注目度): 30.906457338347447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores a scenario in which a malicious actor employs a
multi-armed attack strategy to manipulate data samples, offering them various
avenues to introduce noise into the dataset. Our central objective is to
protect the data by detecting any alterations to the input. We approach this
defensive strategy with utmost caution, operating in an environment where the
defender possesses significantly less information compared to the attacker.
Specifically, the defender is unable to utilize any data samples for training a
defense model or verifying the integrity of the channel. Instead, the defender
relies exclusively on a set of pre-existing detectors readily available ``off
the shelf''. To tackle this challenge, we derive an innovative
information-theoretic defense approach that optimally aggregates the decisions
made by these detectors, eliminating the need for any training data. We further
explore a practical use-case scenario for empirical evaluation, where the
attacker possesses a pre-trained classifier and launches well-known adversarial
attacks against it. Our experiments highlight the effectiveness of our proposed
solution, even in scenarios that deviate from the optimal setup.
- Abstract(参考訳): 本稿では、悪意あるアクターがマルチアーム攻撃戦略を用いてデータサンプルを操作し、データセットにノイズを導入する様々な方法を提案する。
私たちの中心的な目的は、入力の変更を検出することでデータを保護することです。
我々は、攻撃者に比べて情報が少ない環境で、この防御戦略に最大限の注意を払ってアプローチする。
具体的には、ディフェンダーは防衛モデルをトレーニングしたり、チャンネルの完全性を検証するためにデータサンプルを利用できない。
代わりに、ディフェンダーは既存の検出器のセットにのみ依存しており、簡単に ``off the shelf''' が利用可能である。
この課題に対処するために、これらの検出器による決定を最適に集約する革新的な情報理論の防衛アプローチを導き、いかなるトレーニングデータも不要にする。
我々はさらに,攻撃者が事前訓練された分類器を持ち,知名度の高い攻撃を仕掛ける,経験的評価のための実用的なユースケースシナリオについて検討する。
実験では,最適設定から逸脱したシナリオにおいても,提案手法の有効性を強調した。
関連論文リスト
- Detecting Adversarial Data via Perturbation Forgery [28.637963515748456]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布の摂動,スパースマスク生成,擬似対向データ生成を含む摂動フォージェリを提案し,未知の勾配に基づく,生成モデルに基づく,物理的対向攻撃を検出することができる対向検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - Fortify the Guardian, Not the Treasure: Resilient Adversarial Detectors [0.0]
アダプティブアタックとは、攻撃者が防御を意識し、その戦略を適応させる攻撃である。
提案手法は, クリーンな精度を損なうことなく, 敵の訓練を活用して攻撃を検知する能力を強化する。
CIFAR-10とSVHNデータセットの実験的評価により,提案アルゴリズムは,適応的敵攻撃を正確に識別する検出器の能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-04-18T12:13:09Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Toward Robust Recommendation via Real-time Vicinal Defense [32.69838472574848]
本稿では,近隣のトレーニングデータを活用してモデルを微調整し,各ユーザに対して推薦を行うための一般的な方法であるリアルタイムバイシナルディフェンス(RVD)を提案する。
RVDは、精度を犠牲にすることなく、標的の毒殺攻撃を効果的に軽減する。
論文 参考訳(メタデータ) (2023-09-29T14:30:05Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - LTU Attacker for Membership Inference [23.266710407178078]
我々は,会員推定攻撃に対する予測モデルを守るという課題に対処する。
ユーティリティとプライバシの両方を、アタッカーと評価器を含む外部装置で評価する。
特定の条件下では、単純な攻撃戦略によって、LTU攻撃者でさえ、プライバシー損失の低い境界を達成できることを証明します。
論文 参考訳(メタデータ) (2022-02-04T18:06:21Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。