論文の概要: On The Empirical Effectiveness of Unrealistic Adversarial Hardening
Against Realistic Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2202.03277v2
- Date: Mon, 22 May 2023 02:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 06:35:09.581799
- Title: On The Empirical Effectiveness of Unrealistic Adversarial Hardening
Against Realistic Adversarial Attacks
- Title(参考訳): 現実的敵意攻撃に対する非現実的敵意強固化の実証的効果について
- Authors: Salijona Dyrmishi and Salah Ghamizi and Thibault Simonetto and Yves Le
Traon and Maxime Cordy
- Abstract要約: 本研究では,非現実的対向例が実例からモデルを保護するのに有効かどうかを考察する。
その結果,非現実的な例が現実的な例と同等に有効である場合や,限られた改善しか得られない場合とでは,ユースケース間での相違が明らかとなった。
効果的硬化に使用できる非現実的な例を識別するパターンに光を当てた。
- 参考スコア(独自算出の注目度): 9.247680268877795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While the literature on security attacks and defense of Machine Learning (ML)
systems mostly focuses on unrealistic adversarial examples, recent research has
raised concern about the under-explored field of realistic adversarial attacks
and their implications on the robustness of real-world systems. Our paper paves
the way for a better understanding of adversarial robustness against realistic
attacks and makes two major contributions. First, we conduct a study on three
real-world use cases (text classification, botnet detection, malware
detection)) and five datasets in order to evaluate whether unrealistic
adversarial examples can be used to protect models against realistic examples.
Our results reveal discrepancies across the use cases, where unrealistic
examples can either be as effective as the realistic ones or may offer only
limited improvement. Second, to explain these results, we analyze the latent
representation of the adversarial examples generated with realistic and
unrealistic attacks. We shed light on the patterns that discriminate which
unrealistic examples can be used for effective hardening. We release our code,
datasets and models to support future research in exploring how to reduce the
gap between unrealistic and realistic adversarial attacks.
- Abstract(参考訳): 機械学習(ML)システムのセキュリティ攻撃と防御に関する文献は、主に非現実的な敵の例に焦点を当てているが、最近の研究は、現実的な敵の攻撃の未調査分野と、それらの実世界のシステムの堅牢性への影響を懸念している。
本稿は,現実の攻撃に対する敵意の強固さをよりよく理解するための道筋を定め,二つの大きな貢献をした。
まず,実世界の3つのユースケース(テキスト分類,ボットネット検出,マルウェア検出)と5つのデータセットについて検討を行い,非現実的な逆行例を用いて実例からモデルを保護することができるかを評価する。
非現実的な例は現実的なものと同じくらい効果的であるか、あるいは限定的な改善しか提供できない。
第2に,これらの結果を説明するために,現実的かつ非現実的攻撃によって生成された敵の潜在表現を解析する。
効果的硬化に使用できる非現実的な例を識別するパターンに光を当てた。
コード、データセット、モデルをリリースし、非現実的および現実的な敵攻撃の間のギャップを減らす方法について、将来の研究を支援する。
関連論文リスト
- Interactive Trimming against Evasive Online Data Manipulation Attacks: A Game-Theoretic Approach [10.822843258077997]
悪意のあるデータ中毒攻撃は、機械学習プロセスを破壊し、深刻な結果をもたらす可能性がある。
これらの攻撃を軽減するため、トリミングのような距離ベースの防御法が提案されている。
トリミング戦略を用いてオンラインデータ操作攻撃を防御するインタラクティブなゲーム理論モデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T13:59:05Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - The Best Defense is Attack: Repairing Semantics in Textual Adversarial Examples [7.622122513456483]
反応摂動デフォーカス(Rapid)という新しいアプローチを導入する。
ラピッドは、敵の例の偽のラベルを識別し、敵の攻撃者を利用して敵の例のセマンティクスを修復するために、敵の検知器を使用している。
各種攻撃シナリオにおけるRapidの有効性を実証するために,4つの公開データセットを用いて大規模な実験を行った。
論文 参考訳(メタデータ) (2023-05-06T15:14:11Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - An Equivalence Between Data Poisoning and Byzantine Gradient Attacks [5.601217969637838]
ビザンティン」の文献では、労働者がパラメータサーバに任意の勾配を報告できる強力な脅威モデルが検討されている。
このモデルとデータ中毒の間には驚くほどの等価性があり、より現実的な脅威だと考えられています。
論文 参考訳(メタデータ) (2022-02-17T10:53:52Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Back to the Drawing Board: A Critical Evaluation of Poisoning Attacks on
Federated Learning [32.88150721857589]
近年の研究では、フェデレート・ラーニング(FL)は、侵害されたクライアントによる攻撃に弱いことが示されている。
これらの研究はいくつかの非現実的な仮定を導いており、何らかの誤解を招く結論に達している。
本研究は,実用FL環境下での毒殺攻撃に関する最初の批判的分析を行う。
論文 参考訳(メタデータ) (2021-08-23T15:29:45Z) - Are Adversarial Examples Created Equal? A Learnable Weighted Minimax
Risk for Robustness under Non-uniform Attacks [70.11599738647963]
敵の訓練は、強力な攻撃に耐える数少ない防衛の1つである。
従来の防御機構は、基礎となるデータ分布に従って、サンプルに対する均一な攻撃を前提とします。
非一様攻撃に対して重み付けされたミニマックスリスク最適化を提案する。
論文 参考訳(メタデータ) (2020-10-24T21:20:35Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。