論文の概要: Game-Theoretic and Machine Learning-based Approaches for Defensive
Deception: A Survey
- arxiv url: http://arxiv.org/abs/2101.10121v1
- Date: Thu, 21 Jan 2021 21:55:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 09:53:00.883787
- Title: Game-Theoretic and Machine Learning-based Approaches for Defensive
Deception: A Survey
- Title(参考訳): ゲーム理論と機械学習によるディフェンシブ・ディセプションのアプローチ:調査
- Authors: Mu Zhu, Ahmed H. Anwar, Zelin Wan, Jin-Hee Cho, Charles Kamhoua, and
Munindar P. Singh
- Abstract要約: 本稿では,ゲーム理論と機械学習を中心とした防御的デセプション研究に焦点を当てる。
これは、現在の防衛詐欺研究の大きなギャップに取り組むためにいくつかの研究方向の概要で閉じます。
- 参考スコア(独自算出の注目度): 13.624968742674143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Defensive deception is a promising approach for cyberdefense. Although
defensive deception is increasingly popular in the research community, there
has not been a systematic investigation of its key components, the underlying
principles, and its tradeoffs in various problem settings. This survey paper
focuses on defensive deception research centered on game theory and machine
learning, since these are prominent families of artificial intelligence
approaches that are widely employed in defensive deception. This paper brings
forth insights, lessons, and limitations from prior work. It closes with an
outline of some research directions to tackle major gaps in current defensive
deception research.
- Abstract(参考訳): 防衛詐欺はサイバー防衛にとって有望なアプローチだ。
ディフェンシブ・デセプションは研究コミュニティで人気が高まっているが、キーコンポーネント、基本原理、様々な問題設定におけるトレードオフに関する体系的な調査は行われていない。
本研究は,ゲーム理論と機械学習を中心とした防御的デセプション研究に焦点を当て,防御的デセプションに広く用いられている人工知能アプローチの著名なファミリーである。
本稿では,先行作業から洞察,教訓,限界を導き出す。
現在の防衛詐欺研究の大きなギャップに対処するためのいくつかの研究の方向性の概要をまとめて締めくくっている。
関連論文リスト
- Hindering Adversarial Attacks with Multiple Encrypted Patch Embeddings [13.604830818397629]
効率性とロバスト性の両方に着目したキーベースの新たな防衛手法を提案する。
我々は,(1)効率的なトレーニングと(2)任意ランダム化という2つの大きな改善をともなう,以前の防衛基盤を構築した。
実験はImageNetデータセット上で行われ、提案された防御は最先端の攻撃兵器に対して評価された。
論文 参考訳(メタデータ) (2023-09-04T14:08:34Z) - Adversarial Attacks and Defenses on 3D Point Cloud Classification: A
Survey [28.21038594191455]
優れた成果にもかかわらず、ディープラーニングアルゴリズムは敵の攻撃に対して脆弱である。
本稿では,まず,敵攻撃の原理と特徴を紹介し,敵の事例生成手法を要約し,分析する。
また、データ重視およびモデル重視の方法で組織された防衛戦略の概要も提供する。
論文 参考訳(メタデータ) (2023-07-01T11:46:36Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - "Real Attackers Don't Compute Gradients": Bridging the Gap Between
Adversarial ML Research and Practice [10.814642396601139]
研究者と実践者の間に明らかなギャップがあることから,本論文は2つの領域を橋渡しすることを目的としている。
まず実世界のケーススタディを3つのケーススタディで提示し、そのケーススタディから、未知の、あるいは無視された実用的な洞察を導き出すことができる。
次に、トップセキュリティカンファレンスで最近公開されたすべての敵対的ML論文を分析し、ポジティブなトレンドと盲点を強調します。
論文 参考訳(メタデータ) (2022-12-29T14:11:07Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - Threat of Adversarial Attacks on Deep Learning in Computer Vision:
Survey II [86.51135909513047]
ディープラーニングは、予測を操作できる敵攻撃に対して脆弱である。
本稿では,ディープラーニングに対する敵対的攻撃におけるコンピュータビジョンコミュニティの貢献を概観する。
この領域では、非専門家に技術的な用語の定義を提供する。
論文 参考訳(メタデータ) (2021-08-01T08:54:47Z) - Adversarial Machine Learning in Image Classification: A Survey Towards
the Defender's Perspective [1.933681537640272]
逆の例は、悪意のある最適化アルゴリズムによって生成される微妙な摂動を含む画像である。
ディープラーニングアルゴリズムは、生体認証システムや自動運転車など、セキュリティクリティカルなアプリケーションで使われてきた。
論文 参考訳(メタデータ) (2020-09-08T13:21:55Z) - Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive
Review [40.36824357892676]
この研究は、コミュニティにバックドア攻撃のタイムリーなレビューとディープラーニング対策を提供する。
攻撃者の能力と機械学習パイプラインの影響を受けたステージにより、攻撃面は広く認識される。
対策は、ブラインド・バックドア・インスペクション、オフライン・バックドア・インスペクション、オンライン・バックドア・インスペクション、ポスト・バックドア・インスペクションの4つの一般的なクラスに分類される。
論文 参考訳(メタデータ) (2020-07-21T12:49:12Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。