論文の概要: Cream Skimming the Underground: Identifying Relevant Information Points
from Online Forums
- arxiv url: http://arxiv.org/abs/2308.02581v1
- Date: Thu, 3 Aug 2023 16:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 19:58:23.991898
- Title: Cream Skimming the Underground: Identifying Relevant Information Points
from Online Forums
- Title(参考訳): 地下のクリームスキー:オンラインフォーラムから関連情報ポイントを特定する
- Authors: Felipe Moreno-Vera, Mateus Nogueira, Cain\~a Figueiredo, Daniel Sadoc
Menasch\'e, Miguel Bicudo, Ashton Woiwood, Enrico Lovat, Anton Kocheturov,
Leandro Pfleger de Aguiar
- Abstract要約: 本稿では,地下のハッキングフォーラムをモニタリングすることで,野生の脆弱性の悪用を検出するための機械学習アプローチを提案する。
我々は、CVEを引用するスレッドをフィルタリングし、それらをProof-of-Concept, Weaponization, Exploitationとラベル付けできる教師付き機械学習モデルを開発した。
- 参考スコア(独自算出の注目度): 0.16252563723817934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a machine learning-based approach for detecting the
exploitation of vulnerabilities in the wild by monitoring underground hacking
forums. The increasing volume of posts discussing exploitation in the wild
calls for an automatic approach to process threads and posts that will
eventually trigger alarms depending on their content. To illustrate the
proposed system, we use the CrimeBB dataset, which contains data scraped from
multiple underground forums, and develop a supervised machine learning model
that can filter threads citing CVEs and label them as Proof-of-Concept,
Weaponization, or Exploitation. Leveraging random forests, we indicate that
accuracy, precision and recall above 0.99 are attainable for the classification
task. Additionally, we provide insights into the difference in nature between
weaponization and exploitation, e.g., interpreting the output of a decision
tree, and analyze the profits and other aspects related to the hacking
communities. Overall, our work sheds insight into the exploitation of
vulnerabilities in the wild and can be used to provide additional ground truth
to models such as EPSS and Expected Exploitability.
- Abstract(参考訳): 本稿では,地下ハッキングフォーラムをモニタリングすることで,野生における脆弱性の悪用を検出する機械学習アプローチを提案する。
荒野でのエクスプロイトについて議論する投稿が増えているため、スレッドやポストを処理し、最終的にはコンテンツに応じてアラームを発生させる自動アプローチが求められている。
提案システムを説明するために,複数の地下フォーラムから抽出したデータを含むCristBBデータセットを用いて,CVEを引用するスレッドをフィルタリングし,それらをProof-of-Concept, Weaponization, Exploitationとラベル付け可能な教師付き機械学習モデルを開発した。
ランダム林の活用により,分類作業において0.99以上の精度,精度,リコールが達成可能であることを示す。
さらに、武器化と搾取の違い、例えば、決定木の出力を解釈し、ハッキングコミュニティに関連する利益やその他の側面を分析する。
全体として、当社の作業は、脆弱性の悪用に関する洞察を隠蔽し、EPSSや期待される爆発可能性といったモデルに新たな根拠を提供するために使用できます。
関連論文リスト
- "Glue pizza and eat rocks" -- Exploiting Vulnerabilities in Retrieval-Augmented Generative Models [74.05368440735468]
Retrieval-Augmented Generative (RAG)モデルにより大規模言語モデル(LLM)が強化される
本稿では,これらの知識基盤の開放性を敵が活用できるセキュリティ上の脅威を示す。
論文 参考訳(メタデータ) (2024-06-26T05:36:23Z) - Inferring Discussion Topics about Exploitation of Vulnerabilities from Underground Hacking Forums [0.0]
地下ハッキングフォーラムは、ハッキング技術と搾取に関する議論の交換の場として機能している。
本稿では,これらのフォーラムで議論されている脆弱性の鍵テーマを分析し,発見するためのトピックモデリングを用いた革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-07T14:54:32Z) - Semi-supervised Open-World Object Detection [74.95267079505145]
半教師付きオープンワールド検出(SS-OWOD)という,より現実的な定式化を導入する。
提案したSS-OWOD設定では,最先端OWOD検出器の性能が劇的に低下することが実証された。
我々は,MS COCO, PASCAL, Objects365, DOTAの4つのデータセットを用いた実験を行い, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-25T07:12:51Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Certifying Decision Trees Against Evasion Attacks by Program Analysis [9.290879387995401]
本稿では,回避攻撃に対する機械学習モデルの安全性を検証する新しい手法を提案する。
提案手法は,決定木の解釈可能性を利用して命令型プログラムに変換する。
実験の結果,我々の手法は正確かつ効率的であり,最小限の偽陽性しか得られないことが判明した。
論文 参考訳(メタデータ) (2020-07-06T14:18:10Z) - Adaptive Double-Exploration Tradeoff for Outlier Detection [31.428683644520046]
外乱検出の文脈におけるしきい値帯域問題 (TBP) の変種について検討した。
目的は、報酬がしきい値を超える外れ値を特定することである。
個別の腕を探索し、外れ値のしきい値の探索を自動的にオフにすることで、効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-05-13T00:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。