論文の概要: An Ethically Grounded LLM-Based Approach to Insider Threat Synthesis and Detection
- arxiv url: http://arxiv.org/abs/2509.06920v1
- Date: Mon, 08 Sep 2025 17:32:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.289391
- Title: An Ethically Grounded LLM-Based Approach to Insider Threat Synthesis and Detection
- Title(参考訳): 内部脅威合成と検出のための倫理的LLMに基づくアプローチ
- Authors: Haywood Gelman, John D. Hastings, David Kenley,
- Abstract要約: 本研究では,大規模言語モデル(LLM)であるClaude Sonnet 3.7を用いて,サイログメッセージを動的に合成する手法を提案する。
メッセージは、高度に不均衡な(1%のインサイダー脅威)によって、現実世界のデータ分散を反映する
Sonnet 3.7は、ほとんど全ての指標、特に誤報の低減と検出精度の向上において、一貫してGPT-4oを上回った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Insider threats are a growing organizational problem due to the complexity of identifying their technical and behavioral elements. A large research body is dedicated to the study of insider threats from technological, psychological, and educational perspectives. However, research in this domain has been generally dependent on datasets that are static and limited access which restricts the development of adaptive detection models. This study introduces a novel, ethically grounded approach that uses the large language model (LLM) Claude Sonnet 3.7 to dynamically synthesize syslog messages, some of which contain indicators of insider threat scenarios. The messages reflect real-world data distributions by being highly imbalanced (1% insider threats). The syslogs were analyzed for insider threats by both Claude Sonnet 3.7 and GPT-4o, with their performance evaluated through statistical metrics including precision, recall, MCC, and ROC AUC. Sonnet 3.7 consistently outperformed GPT-4o across nearly all metrics, particularly in reducing false alarms and improving detection accuracy. The results show strong promise for the use of LLMs in synthetic dataset generation and insider threat detection.
- Abstract(参考訳): 内部的脅威は、技術的および行動的要素を特定するのが複雑になるため、組織的な問題として増大する。
大規模な研究機関は、技術的、心理的、教育的な観点からのインサイダー脅威の研究に特化している。
しかし、この領域の研究は一般的に、適応検出モデルの開発を制限する静的で限られたアクセスを持つデータセットに依存している。
本研究では,大規模言語モデル(LLM)である Claude Sonnet 3.7 を用いてサイスログメッセージを動的に合成する手法を提案する。
メッセージは、高度に不均衡な(インサイダーの脅威1%)ことで、現実世界のデータ分散を反映する。
サイスログはClaude Sonnet 3.7 と GPT-4o によるインサイダーの脅威に対して分析され、その性能は精度、リコール、MCC、ROC AUCなどの統計指標で評価された。
Sonnet 3.7は、ほとんど全ての指標、特に誤報の低減と検出精度の向上において、一貫してGPT-4oを上回った。
その結果、合成データセット生成とインサイダー脅威検出にLLMを使用することが期待できることがわかった。
関連論文リスト
- An Automated Attack Investigation Approach Leveraging Threat-Knowledge-Augmented Large Language Models [17.220143037047627]
Advanced Persistent Threats (APTs) は高価値システムを侵害してデータを盗んだり、操作を妨害したりする。
既存の手法では、プラットフォーム全般性の貧弱さ、進化的戦術への一般化の制限、アナリスト対応のレポート作成が不可能なことなどに悩まされている。
動的に適応可能なKil-Chain対応脅威知識ベースを組み込んだLDMを利用した攻撃調査フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-01T08:57:01Z) - Chimera: Harnessing Multi-Agent LLMs for Automatic Insider Threat Simulation [17.496651394447596]
我々は,最初の大規模言語モデル(LLM)に基づくマルチエージェントフレームワークであるChimeraを提案する。
Chimeraは、各従業員に役割固有の振る舞いを持つエージェントをモデル化し、グループミーティング、ペアインタラクション、自律スケジューリングのためのモジュールを統合する。
15種類のインサイダー攻撃(IP盗難、システム妨害など)を組み込んでおり、3つの機密ドメインのアクティビティをシミュレートするためにデプロイされている。
我々は人間の研究と定量的分析を通じてChimeraLogを評価し、その多様性、リアリズム、説明可能な脅威パターンの存在を確認した。
論文 参考訳(メタデータ) (2025-08-11T08:24:48Z) - Who Writes What: Unveiling the Impact of Author Roles on AI-generated Text Detection [44.05134959039957]
本稿では,社会言語学的属性・ジェンダー,CEFR習熟度,学術分野,言語環境に影響を及ぼすAIテキスト検出装置について検討する。
CEFRの習熟度と言語環境は一貫して検出器の精度に影響を与え,性別や学術分野は検出器に依存した効果を示した。
これらの発見は、特定の人口集団に不公平に罰を与えるのを避けるために、社会的に認識されたAIテキストの検出が不可欠であることを示している。
論文 参考訳(メタデータ) (2025-02-18T07:49:31Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
我々は,DeepSeek-R1をベンチマークでテストした結果を解析し,この高い評価を得たモデルがもたらす批判的倫理的懸念を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - Evaluating ML Robustness in GNSS Interference Classification, Characterization & Localization [42.14439854721613]
ジャミング装置はグローバルナビゲーション衛星システム(GNSS)からの信号を妨害する
本稿では、低周波アンテナから得られたスナップショットからなる広範囲なデータセットを提案する。
本研究の目的は,機械学習モデル(ML)の環境変化に対するレジリエンスを評価することである。
論文 参考訳(メタデータ) (2024-09-23T15:20:33Z) - Enhancing Robustness of LLM-Synthetic Text Detectors for Academic
Writing: A Comprehensive Analysis [35.351782110161025]
大規模言語モデル(LLM)は、仕事と研究の方法に革命をもたらす多くの利点を提供する。
彼らはまた、潜在的なネガティブな結果のために、かなりの注意を払っている。
1つの例は、人的貢献の少ない学術報告書や論文を作成することである。
論文 参考訳(メタデータ) (2024-01-16T01:58:36Z) - Efficacy of Utilizing Large Language Models to Detect Public Threat
Posted Online [0.0]
本稿では,大規模言語モデル(LLM)を用いてオンライン投稿された公的な脅威を検出することの有効性について検討する。
データ収集ツールは、人気の高い韓国のオンラインコミュニティから投稿を収集するために開発された。
GPT-4は総じて97.9%の非脅威と100%の脅威の精度で性能が向上した。
論文 参考訳(メタデータ) (2023-12-29T16:42:02Z) - Large Language Models can be Guided to Evade AI-Generated Text Detection [40.7707919628752]
大規模言語モデル(LLM)は様々なタスクにおいて顕著な性能を示し、一般に広く利用されている。
我々は、これらの検出器の脆弱性を評価するために、外部パラフレーズに頼るのではなく、LSMにプロンプトを付与する。
本研究では,検出器を回避するためのプロンプトを自動構築する,代用型In-Contextサンプル最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。