論文の概要: Unsupervised User-Based Insider Threat Detection Using Bayesian Gaussian
Mixture Models
- arxiv url: http://arxiv.org/abs/2211.14437v1
- Date: Wed, 23 Nov 2022 13:45:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 14:17:39.688930
- Title: Unsupervised User-Based Insider Threat Detection Using Bayesian Gaussian
Mixture Models
- Title(参考訳): ベイジアンガウス混合モデルを用いた教師なしユーザインサイダー脅威検出
- Authors: Simon Bertrand, Nadia Tawbi, Jos\'ee Desharnais
- Abstract要約: 本稿では,監査データに基づく教師なしインサイダー脅威検出システムを提案する。
提案手法は,ユーザベースモデルを用いて,特定の振る舞いのモデル化とWord2Vecに基づく自動特徴抽出システムを実現する。
その結果,提案手法は最先端手法と競合し,精度が88%,真負率が93%,偽陽性率が6.9%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Insider threats are a growing concern for organizations due to the amount of
damage that their members can inflict by combining their privileged access and
domain knowledge. Nonetheless, the detection of such threats is challenging,
precisely because of the ability of the authorized personnel to easily conduct
malicious actions and because of the immense size and diversity of audit data
produced by organizations in which the few malicious footprints are hidden. In
this paper, we propose an unsupervised insider threat detection system based on
audit data using Bayesian Gaussian Mixture Models. The proposed approach
leverages a user-based model to optimize specific behaviors modelization and an
automatic feature extraction system based on Word2Vec for ease of use in a
real-life scenario. The solution distinguishes itself by not requiring data
balancing nor to be trained only on normal instances, and by its little domain
knowledge required to implement. Still, results indicate that the proposed
method competes with state-of-the-art approaches, presenting a good recall of
88\%, accuracy and true negative rate of 93%, and a false positive rate of
6.9%. For our experiments, we used the benchmark dataset CERT version 4.2.
- Abstract(参考訳): インサイダーの脅威は、特権的なアクセスとドメイン知識を組み合わせることで、メンバーにダメージを与える可能性があるため、組織にとってますます懸念される。
それにもかかわらず、これらの脅威の検出は困難であり、正確には認定された職員が簡単に悪意のある行動を行う能力と、少数の悪意のある足跡が隠されている組織によって生み出される監査データの大きさと多様性のためである。
本稿では,ベイズ・ガウス混合モデルを用いた監査データに基づく教師なしインサイダー脅威検出システムを提案する。
提案手法は,特定の行動のモデル化を最適化するユーザベースモデルと,word2vecに基づく自動特徴抽出システムを活用して,実生活シナリオでの利用を容易にする。
このソリューションは、データバランシングや通常のインスタンスのみをトレーニングする必要がなく、実装に必要なドメイン知識が少ないことで、自分自身を区別します。
それでも,提案手法は最先端手法と競合し,88 %の良好なリコール,精度と真負率93%,偽陽性率6.9%を示した。
実験では、ベンチマークデータセットCERTバージョン4.2を使用しました。
関連論文リスト
- Hide in Plain Sight: Clean-Label Backdoor for Auditing Membership Inference [16.893873979953593]
本研究では,ステルスデータ監査のための新しいクリーンラベルバックドア方式を提案する。
我々のアプローチでは、ターゲットモデルの振る舞いを模倣するシャドウモデルによって生成される最適なトリガを用いる。
提案手法は,ブラックボックスアクセスによるロバストなデータ監査を可能にし,多様なデータセット間で高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2024-11-24T20:56:18Z) - BoBa: Boosting Backdoor Detection through Data Distribution Inference in Federated Learning [26.714674251814586]
フェデレーテッド・ラーニングは、その分散した性質のため、毒殺の被害を受けやすい。
本稿では,この問題を解決するために,分布認識型異常検出機構であるBoBaを提案する。
論文 参考訳(メタデータ) (2024-07-12T19:38:42Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Bayesian Learned Models Can Detect Adversarial Malware For Free [28.498994871579985]
対数訓練は有効な方法であるが、大規模データセットにスケールアップするには計算コストがかかる。
特にベイズ式はモデルパラメータの分布を捉えることができ、モデル性能を犠牲にすることなく不確実性を定量化することができる。
ベイズ学習法で不確実性を定量化することで、敵のマルウェアを防御できることがわかった。
論文 参考訳(メタデータ) (2024-03-27T07:16:48Z) - Unsupervised Accuracy Estimation of Deep Visual Models using
Domain-Adaptive Adversarial Perturbation without Source Samples [1.1852406625172216]
本研究では,未ラベルのターゲットデータに対して,ソースデータにアクセスせずにモデル精度を推定する新しいフレームワークを提案する。
提案手法は,ソース仮説と対象の擬似ラベル関数との相違率を測定する。
提案するソースフリーフレームワークは,分散シフトの困難なシナリオに効果的に対処し,トレーニングにソースデータやラベルを必要とする既存の手法より優れている。
論文 参考訳(メタデータ) (2023-07-19T15:33:11Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - DAD: Data-free Adversarial Defense at Test Time [21.741026088202126]
ディープモデルは敵の攻撃に非常に敏感である。
プライバシは、トレーニングデータではなく、トレーニングされたモデルのみへのアクセスを制限する、重要な関心事になっている。
我々は,「訓練データと統計値の欠如によるテスト時敵防衛」という全く新しい問題を提案する。
論文 参考訳(メタデータ) (2022-04-04T15:16:13Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。