論文の概要: Democratizing ML for Enterprise Security: A Self-Sustained Attack Detection Framework
- arxiv url: http://arxiv.org/abs/2512.08802v1
- Date: Tue, 09 Dec 2025 16:58:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.054119
- Title: Democratizing ML for Enterprise Security: A Self-Sustained Attack Detection Framework
- Title(参考訳): エンタープライズセキュリティのためのMLの民主化 - 自己持続型攻撃検出フレームワーク
- Authors: Sadegh Momeni, Ge Zhang, Birkett Huber, Hamza Harkous, Sam Lipton, Benoit Seguin, Yanis Pavlidis,
- Abstract要約: 本稿では,MLに基づく脅威検出を民主化する新しい2段階ハイブリッドフレームワークを提案する。
第1段階では、大きめのフィルタリングのために意図的にゆるいYARAルールを採用し、高いリコールのために最適化されている。
第2段階は、ML分類器を使用して、第1段階の出力から偽陽性をフィルタリングする。
- 参考スコア(独自算出の注目度): 6.307608439594111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite advancements in machine learning for security, rule-based detection remains prevalent in Security Operations Centers due to the resource intensiveness and skill gap associated with ML solutions. While traditional rule-based methods offer efficiency, their rigidity leads to high false positives or negatives and requires continuous manual maintenance. This paper proposes a novel, two-stage hybrid framework to democratize ML-based threat detection. The first stage employs intentionally loose YARA rules for coarse-grained filtering, optimized for high recall. The second stage utilizes an ML classifier to filter out false positives from the first stage's output. To overcome data scarcity, the system leverages Simula, a seedless synthetic data generation framework, enabling security analysts to create high-quality training datasets without extensive data science expertise or pre-labeled examples. A continuous feedback loop incorporates real-time investigation results to adaptively tune the ML model, preventing rule degradation. This proposed model with active learning has been rigorously tested for a prolonged time in a production environment spanning tens of thousands of systems. The system handles initial raw log volumes often reaching 250 billion events per day, significantly reducing them through filtering and ML inference to a handful of daily tickets for human investigation. Live experiments over an extended timeline demonstrate a general improvement in the model's precision over time due to the active learning feature. This approach offers a self-sustained, low-overhead, and low-maintenance solution, allowing security professionals to guide model learning as expert ``teachers''.
- Abstract(参考訳): セキュリティのための機械学習の進歩にもかかわらず、MLソリューションに関連するリソース集約性とスキルギャップのため、Security Operations Centersではルールベースの検出が普及している。
従来のルールベースの手法は効率性を提供するが、その剛性は高い偽陽性や否定を招き、継続的な手作業によるメンテナンスを必要とする。
本稿では,MLに基づく脅威検出を民主化する新しい2段階ハイブリッドフレームワークを提案する。
第1段階では、大きめのフィルタリングのために意図的にゆるいYARAルールを採用し、高いリコールのために最適化されている。
第2段階は、ML分類器を使用して、第1段階の出力から偽陽性をフィルタリングする。
データ不足を克服するため、このシステムはシードレス合成データ生成フレームワークであるSimulaを活用する。セキュリティアナリストは、広範なデータサイエンスの専門知識や事前ラベル付きサンプルを必要とせずに、高品質なトレーニングデータセットを作成できる。
継続的フィードバックループは、リアルタイム調査結果を組み込んで、MLモデルを適応的にチューニングし、ルールの劣化を防止する。
能動学習を用いた本提案モデルは,数万のシステムにまたがる実運用環境において,長期間にわたって厳密にテストされてきた。
このシステムは、最初の生ログボリュームを1日に250億のイベントに到達し、フィルタリングとML推論により、人間の調査のためのごく一部の日替わりチケットに大幅に削減する。
拡張タイムライン上でのライブ実験は、アクティブな学習機能により、時間とともにモデルの精度が全般的に向上したことを示す。
このアプローチは、自己持続的で、低オーバーヘッドで、メンテナンスの低いソリューションを提供し、セキュリティ専門家は、モデル学習を専門家の‘教師’としてガイドすることができる。
関連論文リスト
- Unlearning That Lasts: Utility-Preserving, Robust, and Almost Irreversible Forgetting in LLMs [31.768387661474904]
大規模言語モデル(LLM)におけるアンラーニングでは、事前訓練されたモデルから特定の情報を正確に除去する。
これは、事前訓練中に取得した個人データや有害な知識を削除することで、LLMの安全性を確保するために重要である。
JensUnを導入し、Jensen-Shannon Divergenceをセットを忘れたり、保持したりするためのトレーニングの目的として活用する。
大規模な実験では、JensUnは競合するメソッドよりも忘れやすいトレードオフを実現し、再学習に強いレジリエンスを示しています。
論文 参考訳(メタデータ) (2025-09-02T20:38:53Z) - Towards Lifecycle Unlearning Commitment Management: Measuring Sample-level Unlearning Completeness [30.596695293390415]
補間近似測定(Interpolated Approximate Measurement, IAM)は、非学習推論用に設計されたフレームワークである。
IAMは、クエリされたサンプルに対するモデルの一般化適合行動ギャップを補間することにより、サンプルレベルの未学習完全性を定量化する。
IAMを最近の近似アンラーニングアルゴリズムに適用し、オーバーアンラーニングとアンダーアンラーニングの両方のリスクを明らかにする。
論文 参考訳(メタデータ) (2025-06-06T14:22:18Z) - UniErase: Towards Balanced and Precise Unlearning in Language Models [69.04923022755547]
大規模言語モデル(LLM)は、古い情報問題に対処するために反復的な更新を必要とする。
UniEraseは、知識の未学習と能力保持の間の精度とバランスの取れたパフォーマンスを示す、新しいアンラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-05-21T15:53:28Z) - Instance-Level Data-Use Auditing of Visual ML Models [49.862257986549885]
機械学習(ML)システムにおけるデータの不正使用に関する法的論争の傾向は、信頼性の高いデータ利用監査機構の必要性を浮き彫りにしている。
本稿では、データ所有者がMLモデルにおける個々のデータインスタンスの使用を監査できるように設計された、最初のプロアクティブな、インスタンスレベルのデータ利用監査手法を提案する。
論文 参考訳(メタデータ) (2025-03-28T13:28:57Z) - An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - R+R: Revisiting Static Feature-Based Android Malware Detection using Machine Learning [4.014524824655106]
マシンラーニング(ML)を使用した静的な機能ベースのAndroidマルウェア検出は、そのスケーラビリティと効率性から、依然として重要な課題である。
既存のアプローチは、しばしばセキュリティクリティカルな懸念を無視する。
本稿では,モデル選択と評価のための厳密な手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T16:37:50Z) - Real-Time Anomaly Detection and Reactive Planning with Large Language Models [18.57162998677491]
例えば、大規模な言語モデル(LLM)は、インターネットスケールのデータに基づいて訓練され、ゼロショット機能を持つ。
本稿では,潜在的な異常に関する判断を安全な制御フレームワークに組み込む2段階の推論フレームワークを提案する。
これにより、モニターは、四輪車や自動運転車のような動的ロボットシステムの信頼性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-11T17:59:22Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - A Generative Framework for Low-Cost Result Validation of Machine Learning-as-a-Service Inference [4.478182379059458]
FidesはML-as-a-Service(ML)推論のリアルタイム整合性検証のための新しいフレームワークである。
Fidesは、統計的分析とばらつき測定を使用して、サービスモデルが攻撃を受けている場合、高い確率で識別するクライアント側攻撃検出モデルを備えている。
攻撃検出と再分類モデルの訓練のための生成的逆ネットワークフレームワークを考案した。
論文 参考訳(メタデータ) (2023-03-31T19:17:30Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。