論文の概要: Predicting Organizational Cybersecurity Risk: A Deep Learning Approach
- arxiv url: http://arxiv.org/abs/2012.14425v1
- Date: Sat, 26 Dec 2020 01:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:15:46.775647
- Title: Predicting Organizational Cybersecurity Risk: A Deep Learning Approach
- Title(参考訳): 組織的サイバーセキュリティリスクの予測 - ディープラーニングアプローチ
- Authors: Benjamin M. Ampel
- Abstract要約: ハッカーはハッカーフォーラムで見つかったエクスプロイトを使って、複雑なサイバー攻撃を行う。
我々は,エクスプロイトがターゲットとするエクスプロイトとそのエンティティを特定するためのhacker forum entity recognition framework(hacker)を提案する。
HackERは、2方向の長期短期メモリモデル(BiLSTM)を使用して、エクスプロイトがターゲットとする企業の予測モデルを作成します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyberattacks conducted by malicious hackers cause irreparable damage to
organizations, governments, and individuals every year. Hackers use exploits
found on hacker forums to carry out complex cyberattacks, making exploration of
these forums vital. We propose a hacker forum entity recognition framework
(HackER) to identify exploits and the entities that the exploits target. HackER
then uses a bidirectional long short-term memory model (BiLSTM) to create a
predictive model for what companies will be targeted by exploits. The results
of the algorithm will be evaluated using a manually labeled gold-standard test
dataset, using accuracy, precision, recall, and F1-score as metrics. We choose
to compare our model against state of the art classical machine learning and
deep learning benchmark models. Results show that our proposed HackER BiLSTM
model outperforms all classical machine learning and deep learning models in
F1-score (79.71%). These results are statistically significant at 0.05 or lower
for all benchmarks except LSTM. The results of preliminary work suggest our
model can help key cybersecurity stakeholders (e.g., analysts, researchers,
educators) identify what type of business an exploit is targeting.
- Abstract(参考訳): 悪意あるハッカーによるサイバー攻撃は、組織、政府、個人に毎年不可分なダメージを与える。
ハッカーはハッカーフォーラムで見つかったエクスプロイトを使って複雑なサイバー攻撃を実行し、これらのフォーラムの探索を不可欠にする。
本稿では,攻撃対象と攻撃対象を識別するためのハッカーフォーラムエンティティ認識フレームワーク(HackER)を提案する。
hackerは双方向のlong short-term memory model(bilstm)を使用して、企業がエクスプロイト対象とする予測モデルを作成する。
アルゴリズムの結果は、精度、精度、リコール、F1スコアを指標として、手動でゴールドスタンダードテストデータセットを使用して評価される。
このモデルと最先端の古典的機械学習とディープラーニングのベンチマークモデルを比較します。
その結果,提案したHacker BiLSTMモデルはF1スコア(79.71%)の古典的機械学習モデルやディープラーニングモデルよりも優れていた。
これらの結果はLSTMを除く全てのベンチマークで0.05以下で統計的に有意である。
予備研究の結果から,サイバーセキュリティの重要なステークホルダー(アナリスト,研究者,教育者など)が,エクスプロイトがターゲットとするビジネスの種類を特定するのに役立つことが示唆された。
関連論文リスト
- The WMDP Benchmark: Measuring and Reducing Malicious Use With Unlearning [88.26832208495078]
ホワイトハウス人工知能に関する大統領令は、生物、サイバー、化学兵器の開発において悪意あるアクターに力を与える大きな言語モデル(LLM)のリスクを強調している。
現在の評価は非公開であり、リスク軽減のさらなる研究を妨げている。
Weapons of Mass Destruction Proxyベンチマークを公開しています。
論文 参考訳(メタデータ) (2024-03-05T18:59:35Z) - Evaluation of LLM Chatbots for OSINT-based Cyber Threat Awareness [1.4932549821542682]
本研究では,ChatGPT,GPT4all,Dolly,Stanford Alpaca,Alpaca-LoRA,Falcon,Vicunaチャットボットのバイナリ分類および名前付きエンティティ認識タスクにおける性能について検討する。
バイナリ分類実験では、商業モデルとしてGPT-4が許容されるF1スコア0.94を達成し、オープンソースのGPT4allモデルはF1スコア0.90を達成した。
本研究は、OSINTバイナリ分類のためのチャットボットの能力を実証し、特別に訓練されたモデルを効果的に置き換えるために、NERをさらに改善する必要があることを示す。
論文 参考訳(メタデータ) (2024-01-26T13:15:24Z) - Small Effect Sizes in Malware Detection? Make Harder Train/Test Splits! [51.668411293817464]
業界関係者は、モデルが数億台のマシンにデプロイされているため、マルウェア検出精度の小さな改善に気を配っている。
学術研究はしばしば1万のサンプルの順序で公開データセットに制限される。
利用可能なサンプルのプールから難易度ベンチマークを生成するためのアプローチを考案する。
論文 参考訳(メタデータ) (2023-12-25T21:25:55Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Detection of Malicious Websites Using Machine Learning Techniques [0.0]
K-Nearest Neighborはデータセット間で一貫して高いパフォーマンスを実現する唯一のモデルだ。
Random Forest、Decision Trees、Logistic Regression、Support Vector Machinesといった他のモデルも、すべてのリンクを悪意のあるものとして予測するベースラインモデルを上回っている。
論文 参考訳(メタデータ) (2022-09-13T13:48:31Z) - Insider Detection using Deep Autoencoder and Variational Autoencoder
Neural Networks [2.5234156040689237]
インサイダー攻撃は、企業、企業、そして重要なインフラにとって最も困難なサイバーセキュリティ問題の一つだ。
本稿では,ディープラーニングアルゴリズムのAutoencoderと変分オートエンコーダのDeepを用いてこの問題に対処することを目的とする。
特に、人間の介入なしに、内部の脅威を自動的に防ぐためにこれらのアルゴリズムを適用することの有用性について検討する。
論文 参考訳(メタデータ) (2021-09-06T16:08:51Z) - Generating Cyber Threat Intelligence to Discover Potential Security
Threats Using Classification and Topic Modeling [6.0897744845912865]
サイバー脅威インテリジェンス(CTI)は、能動的かつ堅牢なメカニズムの1つとして表現されている。
我々のゴールは、異なる教師なしおよび教師なしの学習技術を用いて、ハッカーフォーラムから関連するCTIを特定し、探索することである。
論文 参考訳(メタデータ) (2021-08-16T02:30:29Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - DeepPayload: Black-box Backdoor Attack on Deep Learning Models through
Neural Payload Injection [17.136757440204722]
我々は,コンパイルされたディープラーニングモデルに対して,リバースエンジニアリング技術を用いて,極めて実用的なバックドアアタックを導入する。
注入されたバックドアは93.5%の成功率で起動できるが、遅延オーバーヘッドは2ms以下で精度は1.4%以下である。
人気アプリやセキュリティクリティカルアプリなど、攻撃に対して脆弱な54のアプリが見つかりました。
論文 参考訳(メタデータ) (2021-01-18T06:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。