論文の概要: Unsupervised User-Based Insider Threat Detection Using Bayesian Gaussian
Mixture Models
- arxiv url: http://arxiv.org/abs/2211.14437v1
- Date: Wed, 23 Nov 2022 13:45:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 14:17:39.688930
- Title: Unsupervised User-Based Insider Threat Detection Using Bayesian Gaussian
Mixture Models
- Title(参考訳): ベイジアンガウス混合モデルを用いた教師なしユーザインサイダー脅威検出
- Authors: Simon Bertrand, Nadia Tawbi, Jos\'ee Desharnais
- Abstract要約: 本稿では,監査データに基づく教師なしインサイダー脅威検出システムを提案する。
提案手法は,ユーザベースモデルを用いて,特定の振る舞いのモデル化とWord2Vecに基づく自動特徴抽出システムを実現する。
その結果,提案手法は最先端手法と競合し,精度が88%,真負率が93%,偽陽性率が6.9%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Insider threats are a growing concern for organizations due to the amount of
damage that their members can inflict by combining their privileged access and
domain knowledge. Nonetheless, the detection of such threats is challenging,
precisely because of the ability of the authorized personnel to easily conduct
malicious actions and because of the immense size and diversity of audit data
produced by organizations in which the few malicious footprints are hidden. In
this paper, we propose an unsupervised insider threat detection system based on
audit data using Bayesian Gaussian Mixture Models. The proposed approach
leverages a user-based model to optimize specific behaviors modelization and an
automatic feature extraction system based on Word2Vec for ease of use in a
real-life scenario. The solution distinguishes itself by not requiring data
balancing nor to be trained only on normal instances, and by its little domain
knowledge required to implement. Still, results indicate that the proposed
method competes with state-of-the-art approaches, presenting a good recall of
88\%, accuracy and true negative rate of 93%, and a false positive rate of
6.9%. For our experiments, we used the benchmark dataset CERT version 4.2.
- Abstract(参考訳): インサイダーの脅威は、特権的なアクセスとドメイン知識を組み合わせることで、メンバーにダメージを与える可能性があるため、組織にとってますます懸念される。
それにもかかわらず、これらの脅威の検出は困難であり、正確には認定された職員が簡単に悪意のある行動を行う能力と、少数の悪意のある足跡が隠されている組織によって生み出される監査データの大きさと多様性のためである。
本稿では,ベイズ・ガウス混合モデルを用いた監査データに基づく教師なしインサイダー脅威検出システムを提案する。
提案手法は,特定の行動のモデル化を最適化するユーザベースモデルと,word2vecに基づく自動特徴抽出システムを活用して,実生活シナリオでの利用を容易にする。
このソリューションは、データバランシングや通常のインスタンスのみをトレーニングする必要がなく、実装に必要なドメイン知識が少ないことで、自分自身を区別します。
それでも,提案手法は最先端手法と競合し,88 %の良好なリコール,精度と真負率93%,偽陽性率6.9%を示した。
実験では、ベンチマークデータセットCERTバージョン4.2を使用しました。
関連論文リスト
- SeGA: Preference-Aware Self-Contrastive Learning with Prompts for
Anomalous User Detection on Twitter [14.483830120541894]
本稿では,ユーザの異常検出のための自己コントラスト学習であるSeGAを提案する。
SeGAは、投稿を通じてユーザの好みを要約するために、大きな言語モデルを使用する。
モデル設計と事前学習戦略の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-17T05:35:28Z) - Unsupervised Accuracy Estimation of Deep Visual Models using
Domain-Adaptive Adversarial Perturbation without Source Samples [1.1852406625172216]
本研究では,未ラベルのターゲットデータに対して,ソースデータにアクセスせずにモデル精度を推定する新しいフレームワークを提案する。
提案手法は,ソース仮説と対象の擬似ラベル関数との相違率を測定する。
提案するソースフリーフレームワークは,分散シフトの困難なシナリオに効果的に対処し,トレーニングにソースデータやラベルを必要とする既存の手法より優れている。
論文 参考訳(メタデータ) (2023-07-19T15:33:11Z) - Conservative Prediction via Data-Driven Confidence Minimization [66.35245313125934]
機械学習モデルのエラーは、特に医療のような安全クリティカルな領域では、コストがかかる。
本稿では、不確実性データセットに対する信頼性を最小化するデータ駆動型信頼性最小化(DCM)を提案する。
実験の結果、DCMは8つのID-OODデータセットペアに対して、最先端のOOD検出方法よりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - A Generative Framework for Low-Cost Result Validation of Outsourced
Machine Learning Tasks [4.892092538693841]
我々は、アウトソースされた機械学習ワークロードのリアルタイム検証のための新しいフレームワークであるFidesを提案する。
Fidesは、統計的分析とばらつき測定を使用して、サービスモデルが攻撃を受けている場合、高い確率で識別するクライアント側攻撃検出モデルを備えている。
攻撃検出と再分類モデルの訓練のための生成的逆ネットワークフレームワークを考案した。
論文 参考訳(メタデータ) (2023-03-31T19:17:30Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - DAD: Data-free Adversarial Defense at Test Time [21.741026088202126]
ディープモデルは敵の攻撃に非常に敏感である。
プライバシは、トレーニングデータではなく、トレーニングされたモデルのみへのアクセスを制限する、重要な関心事になっている。
我々は,「訓練データと統計値の欠如によるテスト時敵防衛」という全く新しい問題を提案する。
論文 参考訳(メタデータ) (2022-04-04T15:16:13Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。