論文の概要: Predicting Organizational Cybersecurity Risk: A Deep Learning Approach
- arxiv url: http://arxiv.org/abs/2012.14425v1
- Date: Sat, 26 Dec 2020 01:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:15:46.775647
- Title: Predicting Organizational Cybersecurity Risk: A Deep Learning Approach
- Title(参考訳): 組織的サイバーセキュリティリスクの予測 - ディープラーニングアプローチ
- Authors: Benjamin M. Ampel
- Abstract要約: ハッカーはハッカーフォーラムで見つかったエクスプロイトを使って、複雑なサイバー攻撃を行う。
我々は,エクスプロイトがターゲットとするエクスプロイトとそのエンティティを特定するためのhacker forum entity recognition framework(hacker)を提案する。
HackERは、2方向の長期短期メモリモデル(BiLSTM)を使用して、エクスプロイトがターゲットとする企業の予測モデルを作成します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyberattacks conducted by malicious hackers cause irreparable damage to
organizations, governments, and individuals every year. Hackers use exploits
found on hacker forums to carry out complex cyberattacks, making exploration of
these forums vital. We propose a hacker forum entity recognition framework
(HackER) to identify exploits and the entities that the exploits target. HackER
then uses a bidirectional long short-term memory model (BiLSTM) to create a
predictive model for what companies will be targeted by exploits. The results
of the algorithm will be evaluated using a manually labeled gold-standard test
dataset, using accuracy, precision, recall, and F1-score as metrics. We choose
to compare our model against state of the art classical machine learning and
deep learning benchmark models. Results show that our proposed HackER BiLSTM
model outperforms all classical machine learning and deep learning models in
F1-score (79.71%). These results are statistically significant at 0.05 or lower
for all benchmarks except LSTM. The results of preliminary work suggest our
model can help key cybersecurity stakeholders (e.g., analysts, researchers,
educators) identify what type of business an exploit is targeting.
- Abstract(参考訳): 悪意あるハッカーによるサイバー攻撃は、組織、政府、個人に毎年不可分なダメージを与える。
ハッカーはハッカーフォーラムで見つかったエクスプロイトを使って複雑なサイバー攻撃を実行し、これらのフォーラムの探索を不可欠にする。
本稿では,攻撃対象と攻撃対象を識別するためのハッカーフォーラムエンティティ認識フレームワーク(HackER)を提案する。
hackerは双方向のlong short-term memory model(bilstm)を使用して、企業がエクスプロイト対象とする予測モデルを作成する。
アルゴリズムの結果は、精度、精度、リコール、F1スコアを指標として、手動でゴールドスタンダードテストデータセットを使用して評価される。
このモデルと最先端の古典的機械学習とディープラーニングのベンチマークモデルを比較します。
その結果,提案したHacker BiLSTMモデルはF1スコア(79.71%)の古典的機械学習モデルやディープラーニングモデルよりも優れていた。
これらの結果はLSTMを除く全てのベンチマークで0.05以下で統計的に有意である。
予備研究の結果から,サイバーセキュリティの重要なステークホルダー(アナリスト,研究者,教育者など)が,エクスプロイトがターゲットとするビジネスの種類を特定するのに役立つことが示唆された。
関連論文リスト
- EUREKHA: Enhancing User Representation for Key Hackers Identification in Underground Forums [1.5192294544599656]
地下フォーラムはサイバー犯罪活動のハブとして機能し、匿名性とオンライン監視の回避のためのスペースを提供している。
これらのオペレーションの背後にある重要な機関を特定することは不可欠だが、依然として複雑な課題である。
本稿では、各ユーザをテキストシーケンスとしてモデル化することで、これらの鍵ハッカーを識別するEUREKHAという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-08T11:09:45Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Challenging Machine Learning Algorithms in Predicting Vulnerable JavaScript Functions [2.243674903279612]
最先端の機械学習技術は、JavaScriptプログラムのセキュリティ脆弱性のある関数を予測することができる。
最高性能のアルゴリズムはKNNで、F値0.76の脆弱性関数の予測モデルを作成している。
深層学習,木と林の分類,SVMは0.70以上のF尺度と競合した。
論文 参考訳(メタデータ) (2024-05-12T08:23:42Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Evaluation of LLM Chatbots for OSINT-based Cyber Threat Awareness [1.4932549821542682]
本研究では,ChatGPT,GPT4all,Dolly,Stanford Alpaca,Alpaca-LoRA,Falcon,Vicunaチャットボットのバイナリ分類および名前付きエンティティ認識タスクにおける性能について検討する。
バイナリ分類実験では、商業モデルとしてGPT-4が許容されるF1スコア0.94を達成し、オープンソースのGPT4allモデルはF1スコア0.90を達成した。
本研究は、OSINTバイナリ分類のためのチャットボットの能力を実証し、特別に訓練されたモデルを効果的に置き換えるために、NERをさらに改善する必要があることを示す。
論文 参考訳(メタデータ) (2024-01-26T13:15:24Z) - Small Effect Sizes in Malware Detection? Make Harder Train/Test Splits! [51.668411293817464]
業界関係者は、モデルが数億台のマシンにデプロイされているため、マルウェア検出精度の小さな改善に気を配っている。
学術研究はしばしば1万のサンプルの順序で公開データセットに制限される。
利用可能なサンプルのプールから難易度ベンチマークを生成するためのアプローチを考案する。
論文 参考訳(メタデータ) (2023-12-25T21:25:55Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Detection of Malicious Websites Using Machine Learning Techniques [0.0]
K-Nearest Neighborはデータセット間で一貫して高いパフォーマンスを実現する唯一のモデルだ。
Random Forest、Decision Trees、Logistic Regression、Support Vector Machinesといった他のモデルも、すべてのリンクを悪意のあるものとして予測するベースラインモデルを上回っている。
論文 参考訳(メタデータ) (2022-09-13T13:48:31Z) - Insider Detection using Deep Autoencoder and Variational Autoencoder
Neural Networks [2.5234156040689237]
インサイダー攻撃は、企業、企業、そして重要なインフラにとって最も困難なサイバーセキュリティ問題の一つだ。
本稿では,ディープラーニングアルゴリズムのAutoencoderと変分オートエンコーダのDeepを用いてこの問題に対処することを目的とする。
特に、人間の介入なしに、内部の脅威を自動的に防ぐためにこれらのアルゴリズムを適用することの有用性について検討する。
論文 参考訳(メタデータ) (2021-09-06T16:08:51Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。