論文の概要: Adversarial Robustness for Machine Learning Cyber Defenses Using Log
Data
- arxiv url: http://arxiv.org/abs/2007.14983v1
- Date: Wed, 29 Jul 2020 17:51:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 19:42:02.790851
- Title: Adversarial Robustness for Machine Learning Cyber Defenses Using Log
Data
- Title(参考訳): ログデータを用いた機械学習サイバーディフェンスの逆ロバスト性
- Authors: Kai Steverson, Jonathan Mullin, Metin Ahiskali
- Abstract要約: 我々は,機械学習サイバーディフェンスの対角的堅牢性を評価するためのテストフレームワークを開発した。
我々は、公開データセットを用いて、我々のフレームワークを検証し、我々の敵攻撃がターゲットシステムに対して成功することを示す。
我々は,異なるレベルのドロップアウト正規化の影響を分析し,より高いドロップアウトレベルがロバスト性を高めることを確かめるために,我々のフレームワークを適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been considerable and growing interest in applying machine learning
for cyber defenses. One promising approach has been to apply natural language
processing techniques to analyze logs data for suspicious behavior. A natural
question arises to how robust these systems are to adversarial attacks. Defense
against sophisticated attack is of particular concern for cyber defenses. In
this paper, we develop a testing framework to evaluate adversarial robustness
of machine learning cyber defenses, particularly those focused on log data. Our
framework uses techniques from deep reinforcement learning and adversarial
natural language processing. We validate our framework using a publicly
available dataset and demonstrate that our adversarial attack does succeed
against the target systems, revealing a potential vulnerability. We apply our
framework to analyze the influence of different levels of dropout
regularization and find that higher dropout levels increases robustness.
Moreover 90% dropout probability exhibited the highest level of robustness by a
significant margin, which suggests unusually high dropout may be necessary to
properly protect against adversarial attacks.
- Abstract(参考訳): サイバー防衛に機械学習を適用することへの関心はますます高まっている。
有望なアプローチの1つは、疑わしい行動のログデータを分析するために自然言語処理技術を適用することである。
自然な疑問は、これらのシステムが敵の攻撃に対してどれほど頑丈かである。
高度な攻撃に対する防衛は、サイバー防衛に特に関心がある。
本稿では,特にログデータに着目した機械学習サイバーディフェンスの敵意的堅牢性を評価するためのテストフレームワークを開発する。
我々のフレームワークは、深層強化学習と逆自然言語処理の技法を用いる。
我々は、公開データセットを使用してフレームワークを検証するとともに、敵攻撃がターゲットシステムに対して成功し、潜在的な脆弱性を明らかにする。
我々は,異なるレベルのドロップアウト正規化の影響を分析するためにフレームワークを適用し,より高いドロップアウトレベルが堅牢性を高めることを発見した。
さらに90%の脱落確率は、高いマージンで高いロバスト性を示しており、これは敵の攻撃に対して適切に防御するためには、異常に高い脱落率が必要であることを示唆している。
関連論文リスト
- Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Robust Adversarial Defense by Tensor Factorization [1.2954493726326113]
本研究では、入力データのテンソル化と低ランク分解とNNパラメータのテンソル化を統合し、敵防御を強化する。
提案手法は、最強の自爆攻撃を受けた場合でも、高い防御能力を示し、堅牢な精度を維持する。
論文 参考訳(メタデータ) (2023-09-03T04:51:44Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - It Is All About Data: A Survey on the Effects of Data on Adversarial
Robustness [4.1310970179750015]
逆の例は、攻撃者が意図的にモデルを混乱させてミスを犯すように設計された機械学習モデルへの入力である。
この問題に対処するために、敵の堅牢性の領域は、敵の攻撃の背後にあるメカニズムとこれらの攻撃に対する防御を調査する。
論文 参考訳(メタデータ) (2023-03-17T04:18:03Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Support Vector Machines under Adversarial Label Contamination [13.299257835329868]
本稿では,SVM(Support Vector Machines)のセキュリティ評価を行った。
特に,複数のラベルを反転させることで,SVMの分類エラーを形式化することを目的とした攻撃者について検討する。
我々は、よりセキュアなSVM学習アルゴリズムを開発する上で、我々のアプローチは有用な洞察を与えることができると論じる。
論文 参考訳(メタデータ) (2022-06-01T09:38:07Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。