論文の概要: Adversarial Attacks Neutralization via Data Set Randomization
- arxiv url: http://arxiv.org/abs/2306.12161v1
- Date: Wed, 21 Jun 2023 10:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 13:47:38.017010
- Title: Adversarial Attacks Neutralization via Data Set Randomization
- Title(参考訳): データセットランダム化による敵攻撃の中立化
- Authors: Mouna Rabhi and Roberto Di Pietro
- Abstract要約: ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
- 参考スコア(独自算出の注目度): 3.655021726150369
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial attacks on deep-learning models pose a serious threat to their
reliability and security. Existing defense mechanisms are narrow addressing a
specific type of attack or being vulnerable to sophisticated attacks. We
propose a new defense mechanism that, while being focused on image-based
classifiers, is general with respect to the cited category. It is rooted on
hyperspace projection. In particular, our solution provides a pseudo-random
projection of the original dataset into a new dataset. The proposed defense
mechanism creates a set of diverse projected datasets, where each projected
dataset is used to train a specific classifier, resulting in different trained
classifiers with different decision boundaries. During testing, it randomly
selects a classifier to test the input. Our approach does not sacrifice
accuracy over legitimate input. Other than detailing and providing a thorough
characterization of our defense mechanism, we also provide a proof of concept
of using four optimization-based adversarial attacks (PGD, FGSM, IGSM, and
C\&W) and a generative adversarial attack testing them on the MNIST dataset.
Our experimental results show that our solution increases the robustness of
deep learning models against adversarial attacks and significantly reduces the
attack success rate by at least 89% for optimization attacks and 78% for
generative attacks. We also analyze the relationship between the number of used
hyperspaces and the efficacy of the defense mechanism. As expected, the two are
positively correlated, offering an easy-to-tune parameter to enforce the
desired level of security. The generality and scalability of our solution and
adaptability to different attack scenarios, combined with the excellent
achieved results, other than providing a robust defense against adversarial
attacks on deep learning networks, also lay the groundwork for future research
in the field.
- Abstract(参考訳): ディープラーニングモデルに対する敵意攻撃は、その信頼性とセキュリティに深刻な脅威をもたらす。
既存の防御機構は特定の種類の攻撃に対処するか、高度な攻撃に対して脆弱である。
本稿では,画像に基づく分類器に着目しつつ,引用するカテゴリに対して汎用的な防御機構を提案する。
それは超空間射影に根ざしている。
特に、我々のソリューションは、元のデータセットを新しいデータセットに擬似ランダムに投影する。
提案された防御メカニズムは、さまざまな予測データセットのセットを生成し、各投影データセットを使用して特定の分類器をトレーニングし、異なる決定境界を持つ異なる訓練された分類器を生成する。
テスト中は、入力をテストするための分類器をランダムに選択する。
我々のアプローチは正しい入力よりも正確さを犠牲にしない。
また, 防衛機構の詳細な特徴付けに加えて, 最適化に基づく4つの敵攻撃(PGD, FGSM, IGSM, C\&W)と, MNISTデータセット上でそれらを検証した生成的敵攻撃を用いた概念の証明も提供する。
実験の結果,本手法は,敵対攻撃に対するディープラーニングモデルの堅牢性を向上し,最適化攻撃の少なくとも89%,生成攻撃の78%で攻撃成功率を大幅に低下させることが示された。
また,使用済みハイパースペース数と防御機構の有効性との関係を解析した。
予想通り、両者は正の相関関係にあり、望ましいレベルのセキュリティを強制する容易なパラメータを提供する。
我々のソリューションの汎用性とスケーラビリティ、異なる攻撃シナリオへの適応性、そして優れた成果と組み合わせることで、ディープラーニングネットワークに対する敵対的攻撃に対する堅牢な防御を提供することは、この分野における今後の研究の基盤となる。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Omni: Automated Ensemble with Unexpected Models against Adversarial
Evasion Attack [35.0689225703137]
機械学習に基づくセキュリティ検出モデルは、敵の回避攻撃の影響を受けやすい。
我々はオムニ(Omni)と呼ばれる手法を提案し、「予期せぬモデル」のアンサンブルを作成する方法を探る。
5種類の敵対的回避攻撃による研究において,オムニは防衛戦略として有望なアプローチであることを示す。
論文 参考訳(メタデータ) (2020-11-23T20:02:40Z) - Subpopulation Data Poisoning Attacks [18.830579299974072]
機械学習に対する攻撃は、機械学習アルゴリズムが使用するデータの逆修正を誘導し、デプロイ時に出力を選択的に変更する。
本研究では,エフェサブポピュレーションアタック(emphsubpopulation attack)と呼ばれる新たなデータ中毒攻撃を導入する。
サブポピュレーション攻撃のためのモジュラーフレームワークを設計し、異なるビルディングブロックでインスタンス化し、その攻撃がさまざまなデータセットや機械学習モデルに有効であることを示す。
論文 参考訳(メタデータ) (2020-06-24T20:20:52Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。