論文の概要: Against All Odds: Winning the Defense Challenge in an Evasion
Competition with Diversification
- arxiv url: http://arxiv.org/abs/2010.09569v1
- Date: Mon, 19 Oct 2020 14:53:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 23:08:07.638096
- Title: Against All Odds: Winning the Defense Challenge in an Evasion
Competition with Diversification
- Title(参考訳): All Odds:Evasion competition with Diversificationでディフェンスチャレンジに勝つ
- Authors: Erwin Quiring, Lukas Pirch, Michael Reimsbach, Daniel Arp, Konrad
Rieck
- Abstract要約: 本稿では,Microsoft Evasion Competitionのディフェンダーチャレンジで最初に獲得した,学習ベースのPEberusについて概説する。
セマンティック・ギャップに対処し、様々な分類モデルを使用し、ステートフル・ディフェンスを適用する。
- 参考スコア(独自算出の注目度): 13.236009846517662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning-based systems for malware detection operate in a hostile
environment. Consequently, adversaries will also target the learning system and
use evasion attacks to bypass the detection of malware. In this paper, we
outline our learning-based system PEberus that got the first place in the
defender challenge of the Microsoft Evasion Competition, resisting a variety of
attacks from independent attackers. Our system combines multiple, diverse
defenses: we address the semantic gap, use various classification models, and
apply a stateful defense. This competition gives us the unique opportunity to
examine evasion attacks under a realistic scenario. It also highlights that
existing machine learning methods can be hardened against attacks by thoroughly
analyzing the attack surface and implementing concepts from adversarial
learning. Our defense can serve as an additional baseline in the future to
strengthen the research on secure learning.
- Abstract(参考訳): マルウェア検出のための機械学習ベースのシステムは、敵対的な環境で動作します。
その結果、敵は学習システムもターゲットとし、マルウェアの検出を回避するために回避攻撃を使用する。
本稿では,microsoftの回避競争におけるディフェンダーチャレンジにおいて,独立した攻撃者によるさまざまな攻撃に抵抗し,第1位となった学習ベースのシステムpeberusについて概説する。
我々のシステムは、複数の多様な防御を組み合わせる:我々は、意味的ギャップに対処し、様々な分類モデルを使用し、ステートフルな防御を適用する。
この競争は、現実のシナリオで回避攻撃を調べるユニークな機会を与えてくれます。
また、攻撃面を徹底的に分析し、敵の学習から概念を実装することで、既存の機械学習手法を攻撃に対して強固にすることができることも強調する。
我々の防衛は、セキュアな学習の研究を強化するために、将来追加のベースラインとして機能する。
関連論文リスト
- A Novel Approach to Guard from Adversarial Attacks using Stable Diffusion [0.0]
我々の提案は、AI Guardianフレームワークに対する別のアプローチを提案する。
トレーニングプロセスに敵対的な例を含める代わりに、AIシステムをトレーニングせずに行うことを提案する。
これは、より広い範囲の攻撃に対して本質的に回復力のあるシステムを構築することを目的としています。
論文 参考訳(メタデータ) (2024-05-03T04:08:15Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Game Theoretic Mixed Experts for Combinational Adversarial Machine
Learning [10.368343314144553]
我々は、敵の攻撃と防御をアンサンブルするためのゲーム理論の枠組みを提供する。
本稿では, ランダム化変換, マルチモデル投票方式, 対向検出器アーキテクチャによる防御を目標とする3つの新しい攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:35:01Z) - Ares: A System-Oriented Wargame Framework for Adversarial ML [3.197282271064602]
Aresは、現実的なウォーゲームのような環境で、研究者が攻撃や防御を探索できる敵MLの評価フレームワークである。
アレスは、攻撃者とディフェンダーの間の対立を、反対の目的を持つ強化学習環境における2つのエージェントとして表している。
これにより、障害発生までの時間や複雑な戦略の評価など、システムレベルの評価指標が導入される。
論文 参考訳(メタデータ) (2022-10-24T04:55:18Z) - Survey on Federated Learning Threats: concepts, taxonomy on attacks and
defences, experimental study and challenges [10.177219272933781]
フェデレーション・ラーニング(Federated Learning)は、人工知能におけるプライバシ保護要求の解決策として現れる機械学習パラダイムである。
機械学習として、フェデレートされた学習は、学習モデルの完全性とデータのプライバシに対する敵対的な攻撃によって、ローカルおよびグローバルな学習に取り組むための分散アプローチによって脅かされる。
論文 参考訳(メタデータ) (2022-01-20T12:23:03Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Block Switching: A Stochastic Approach for Deep Learning Security [75.92824098268471]
近年の敵対的攻撃の研究は、現代のディープラーニングモデルの脆弱性を明らかにしている。
本稿では、オン性に基づく敵攻撃に対する防御戦略であるBlock Switching(BS)を紹介する。
論文 参考訳(メタデータ) (2020-02-18T23:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。