論文の概要: Machine Learning for Offensive Security: Sandbox Classification Using
Decision Trees and Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2007.06763v1
- Date: Tue, 14 Jul 2020 01:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 15:26:34.574989
- Title: Machine Learning for Offensive Security: Sandbox Classification Using
Decision Trees and Artificial Neural Networks
- Title(参考訳): 攻撃的セキュリティのための機械学習:決定木とニューラルネットワークを用いたサンドボックス分類
- Authors: Will Pearce, Nick Landers, and Nancy Fulda
- Abstract要約: ディープラーニングのテクニックは、深いポケットと大規模なデータリポジトリを持つ組織に限られていない。
本稿では、実際の攻撃チームが、攻撃的操作をサポートするために機械学習をどのように使っているかについて、ユニークな洞察を提供することを目的としている。
- 参考スコア(独自算出の注目度): 1.758684872705242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The merits of machine learning in information security have primarily focused
on bolstering defenses. However, machine learning (ML) techniques are not
reserved for organizations with deep pockets and massive data repositories; the
democratization of ML has lead to a rise in the number of security teams using
ML to support offensive operations. The research presented here will explore
two models that our team has used to solve a single offensive task, detecting a
sandbox. Using process list data gathered with phishing emails, we will
demonstrate the use of Decision Trees and Artificial Neural Networks to
successfully classify sandboxes, thereby avoiding unsafe execution. This paper
aims to give unique insight into how a real offensive team is using machine
learning to support offensive operations.
- Abstract(参考訳): 情報セキュリティにおける機械学習のメリットは、主に防衛を強化することに焦点を当てている。
しかし、機械学習(ml)のテクニックは、深いポケットと巨大なデータリポジトリを持つ組織に留まらず、mlの民主化によって、mlを使用して攻撃的な操作をサポートするセキュリティチームの数が増えています。
ここで提示された研究は、我々のチームが1つの攻撃的タスクを解決するために使った2つのモデルを調べ、サンドボックスを検出する。
フィッシングメールで収集されたプロセスリストデータを用いて、サンドボックスの分類にDecision TreesとArtificial Neural Networksを用いることで、安全でない実行を避けることができる。
本稿は,実際の攻撃的チームが機械学習を用いて攻撃的操作をサポートする方法について,ユニークな洞察を提供することを目的とする。
関連論文リスト
- Machine Unlearning using Forgetting Neural Networks [0.0]
本稿では,忘れニューラルネットワーク(FNN)を用いた機械学習の新しいアプローチを提案する。
FNNは特定の記憶層を持つニューラルネットワークで、人間の脳が忘れられたときのプロセスからインスピレーションを受けます。
MNIST手書き文字認識とファッションデータセットについて報告する。
論文 参考訳(メタデータ) (2024-10-29T02:52:26Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Do You Trust Your Model? Emerging Malware Threats in the Deep Learning
Ecosystem [37.650342256199096]
ニューラルネットワークに自己抽出型自己実行型マルウェアを組み込むテクニックであるMaleficNet 2.0を紹介する。
MaleficNet 2.0インジェクションテクニックはステルス性があり、モデルのパフォーマンスを低下させることなく、除去テクニックに対して堅牢である。
我々は、MaleficNet 2.0を用いた概念実証型自己抽出ニューラルネットワークマルウェアを実装し、広く採用されている機械学習フレームワークに対する攻撃の実用性を実証した。
論文 参考訳(メタデータ) (2024-03-06T10:27:08Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Robust and Verifiable Information Embedding Attacks to Deep Neural
Networks via Error-Correcting Codes [81.85509264573948]
ディープラーニングの時代、ユーザは、サードパーティの機械学習ツールを使用して、ディープニューラルネットワーク(DNN)分類器をトレーニングすることが多い。
情報埋め込み攻撃では、攻撃者は悪意のあるサードパーティの機械学習ツールを提供する。
本研究では,一般的なポストプロセッシング手法に対して検証可能で堅牢な情報埋め込み攻撃を設計することを目的とする。
論文 参考訳(メタデータ) (2020-10-26T17:42:42Z) - Security of Distributed Machine Learning: A Game-Theoretic Approach to
Design Secure DSVM [31.480769801354413]
この研究は、データ中毒やネットワーク攻撃から学習を保護するために、セキュアな分散アルゴリズムを開発することを目的としている。
我々は,分散サポートベクトルマシン(SVM)を使用する学習者と,トレーニングデータやラベルを変更することができる攻撃者の相反する目標を捉えるためのゲーム理論の枠組みを確立する。
数値的な結果から,分散SVMは異なるタイプの攻撃で失敗する傾向にあり,ネットワーク構造や攻撃能力に強い依存があることが分かる。
論文 参考訳(メタデータ) (2020-03-08T18:54:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。