論文の概要: Adversarial Machine Learning for Cybersecurity and Computer Vision:
Current Developments and Challenges
- arxiv url: http://arxiv.org/abs/2107.02894v1
- Date: Wed, 30 Jun 2021 03:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-11 11:36:11.520063
- Title: Adversarial Machine Learning for Cybersecurity and Computer Vision:
Current Developments and Challenges
- Title(参考訳): サイバーセキュリティとコンピュータビジョンのためのadversarial machine learningの現状と課題
- Authors: Bowei Xi
- Abstract要約: 敵対的機械学習の研究は、機械学習技術の幅広い応用に対する重大な脅威に対処する。
まず、主に3つの機械学習テクニックに対する攻撃、すなわち中毒攻撃、回避攻撃、プライバシ攻撃について論じる。
サイバーセキュリティとコンピュータビジョンにおける敵のサンプルは根本的に異なることに気付きます。
- 参考スコア(独自算出の注目度): 2.132096006921048
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We provide a comprehensive overview of adversarial machine learning focusing
on two application domains, i.e., cybersecurity and computer vision. Research
in adversarial machine learning addresses a significant threat to the wide
application of machine learning techniques -- they are vulnerable to carefully
crafted attacks from malicious adversaries. For example, deep neural networks
fail to correctly classify adversarial images, which are generated by adding
imperceptible perturbations to clean images.We first discuss three main
categories of attacks against machine learning techniques -- poisoning attacks,
evasion attacks, and privacy attacks. Then the corresponding defense approaches
are introduced along with the weakness and limitations of the existing defense
approaches. We notice adversarial samples in cybersecurity and computer vision
are fundamentally different. While adversarial samples in cybersecurity often
have different properties/distributions compared with training data,
adversarial images in computer vision are created with minor input
perturbations. This further complicates the development of robust learning
techniques, because a robust learning technique must withstand different types
of attacks.
- Abstract(参考訳): 本稿では,2つのアプリケーションドメイン,すなわちサイバーセキュリティとコンピュータビジョンに焦点を当てた敵機械学習の概要を紹介する。
敵意のある機械学習の研究は、機械学習技術の幅広い応用に対する大きな脅威に対処している。
例えば、深層ニューラルネットワークは、クリーンな画像に知覚不能な摂動を追加して生成される敵画像を正確に分類できない。まず、機械学習技術に対する攻撃の3つの主要なカテゴリ(毒殺攻撃、回避攻撃、プライバシ攻撃)について論じる。
次に、既存の防御アプローチの弱点と限界とともに対応する防御アプローチを導入する。
サイバーセキュリティとコンピュータビジョンにおける敵のサンプルは、根本的に異なる。
サイバーセキュリティにおける敵対的サンプルは、トレーニングデータと異なる特性/分布を持つことが多いが、コンピュータビジョンにおける敵対的イメージは、小さな入力摂動によって生成される。
これは、ロバストな学習テクニックが異なるタイプの攻撃に耐えなければならないため、ロバストな学習テクニックの開発をさらに複雑にする。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - How Deep Learning Sees the World: A Survey on Adversarial Attacks &
Defenses [0.0]
本稿では、攻撃能力によってグループ化された最新の敵攻撃と、防御戦略によってクラスタ化された現代の防御をコンパイルする。
また、視覚変換器に関する新たな進歩を提示し、敵対的設定の文脈で使用されるデータセットとメトリクスを要約し、異なる攻撃下での最先端の結果を比較し、オープンな問題の特定で終了する。
論文 参考訳(メタデータ) (2023-05-18T10:33:28Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - The Threat of Adversarial Attacks on Machine Learning in Network
Security -- A Survey [4.164845768197488]
ネットワークセキュリティにおける機械学習の応用は、他のドメインと比較して、活発な敵攻撃に対する不当な脅威に直面している。
本調査ではまず,機械学習技術,タスク,深さの分類について述べる。
ネットワークセキュリティにおける機械学習に対する様々な敵攻撃について検討し、ネットワークセキュリティにおける敵攻撃に対する2つの分類手法を提案する。
論文 参考訳(メタデータ) (2019-11-06T20:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。