論文の概要: Game-Theoretic and Machine Learning-based Approaches for Defensive
Deception: A Survey
- arxiv url: http://arxiv.org/abs/2101.10121v1
- Date: Thu, 21 Jan 2021 21:55:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 09:53:00.883787
- Title: Game-Theoretic and Machine Learning-based Approaches for Defensive
Deception: A Survey
- Title(参考訳): ゲーム理論と機械学習によるディフェンシブ・ディセプションのアプローチ:調査
- Authors: Mu Zhu, Ahmed H. Anwar, Zelin Wan, Jin-Hee Cho, Charles Kamhoua, and
Munindar P. Singh
- Abstract要約: 本稿では,ゲーム理論と機械学習を中心とした防御的デセプション研究に焦点を当てる。
これは、現在の防衛詐欺研究の大きなギャップに取り組むためにいくつかの研究方向の概要で閉じます。
- 参考スコア(独自算出の注目度): 13.624968742674143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Defensive deception is a promising approach for cyberdefense. Although
defensive deception is increasingly popular in the research community, there
has not been a systematic investigation of its key components, the underlying
principles, and its tradeoffs in various problem settings. This survey paper
focuses on defensive deception research centered on game theory and machine
learning, since these are prominent families of artificial intelligence
approaches that are widely employed in defensive deception. This paper brings
forth insights, lessons, and limitations from prior work. It closes with an
outline of some research directions to tackle major gaps in current defensive
deception research.
- Abstract(参考訳): 防衛詐欺はサイバー防衛にとって有望なアプローチだ。
ディフェンシブ・デセプションは研究コミュニティで人気が高まっているが、キーコンポーネント、基本原理、様々な問題設定におけるトレードオフに関する体系的な調査は行われていない。
本研究は,ゲーム理論と機械学習を中心とした防御的デセプション研究に焦点を当て,防御的デセプションに広く用いられている人工知能アプローチの著名なファミリーである。
本稿では,先行作業から洞察,教訓,限界を導き出す。
現在の防衛詐欺研究の大きなギャップに対処するためのいくつかの研究の方向性の概要をまとめて締めくくっている。
関連論文リスト
- "Real Attackers Don't Compute Gradients": Bridging the Gap Between
Adversarial ML Research and Practice [10.814642396601139]
研究者と実践者の間に明らかなギャップがあることから,本論文は2つの領域を橋渡しすることを目的としている。
まず実世界のケーススタディを3つのケーススタディで提示し、そのケーススタディから、未知の、あるいは無視された実用的な洞察を導き出すことができる。
次に、トップセキュリティカンファレンスで最近公開されたすべての敵対的ML論文を分析し、ポジティブなトレンドと盲点を強調します。
論文 参考訳(メタデータ) (2022-12-29T14:11:07Z) - Vision-based Perimeter Defense via Multiview Pose Estimation [23.62649649982264]
本研究では,写真実写シミュレータと実世界における周辺防御ゲームについて検討する。
我々は、ドメインランダム化を用いた侵入者ポーズ検出のためのディープラーニングベースのシステムを訓練する。
視覚に基づく周辺防御を評価するための性能指標を新たに導入する。
論文 参考訳(メタデータ) (2022-09-25T03:41:45Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - Threat of Adversarial Attacks on Deep Learning in Computer Vision:
Survey II [86.51135909513047]
ディープラーニングは、予測を操作できる敵攻撃に対して脆弱である。
本稿では,ディープラーニングに対する敵対的攻撃におけるコンピュータビジョンコミュニティの貢献を概観する。
この領域では、非専門家に技術的な用語の定義を提供する。
論文 参考訳(メタデータ) (2021-08-01T08:54:47Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - On Evaluating Neural Network Backdoor Defenses [6.102130712169916]
ディープニューラルネットワーク(DNN)は、精査やセキュリティなど、さまざまな分野で優れたパフォーマンスを示している。
最近の研究では、DNNはバックドア攻撃に弱いことが示されている。
論文 参考訳(メタデータ) (2020-10-23T06:31:17Z) - Adversarial Machine Learning in Image Classification: A Survey Towards
the Defender's Perspective [1.933681537640272]
逆の例は、悪意のある最適化アルゴリズムによって生成される微妙な摂動を含む画像である。
ディープラーニングアルゴリズムは、生体認証システムや自動運転車など、セキュリティクリティカルなアプリケーションで使われてきた。
論文 参考訳(メタデータ) (2020-09-08T13:21:55Z) - Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive
Review [40.36824357892676]
この研究は、コミュニティにバックドア攻撃のタイムリーなレビューとディープラーニング対策を提供する。
攻撃者の能力と機械学習パイプラインの影響を受けたステージにより、攻撃面は広く認識される。
対策は、ブラインド・バックドア・インスペクション、オフライン・バックドア・インスペクション、オンライン・バックドア・インスペクション、ポスト・バックドア・インスペクションの4つの一般的なクラスに分類される。
論文 参考訳(メタデータ) (2020-07-21T12:49:12Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。