論文の概要: Chimera: Harnessing Multi-Agent LLMs for Automatic Insider Threat Simulation
- arxiv url: http://arxiv.org/abs/2508.07745v1
- Date: Mon, 11 Aug 2025 08:24:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.006847
- Title: Chimera: Harnessing Multi-Agent LLMs for Automatic Insider Threat Simulation
- Title(参考訳): Chimera: 自動インサイダー脅威シミュレーションのためのマルチエージェントLDMのハーネス化
- Authors: Jiongchi Yu, Xiaofei Xie, Qiang Hu, Yuhan Ma, Ziming Zhao,
- Abstract要約: 我々は,最初の大規模言語モデル(LLM)に基づくマルチエージェントフレームワークであるChimeraを提案する。
Chimeraは、各従業員に役割固有の振る舞いを持つエージェントをモデル化し、グループミーティング、ペアインタラクション、自律スケジューリングのためのモジュールを統合する。
15種類のインサイダー攻撃(IP盗難、システム妨害など)を組み込んでおり、3つの機密ドメインのアクティビティをシミュレートするためにデプロイされている。
我々は人間の研究と定量的分析を通じてChimeraLogを評価し、その多様性、リアリズム、説明可能な脅威パターンの存在を確認した。
- 参考スコア(独自算出の注目度): 17.496651394447596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Insider threats, which can lead to severe losses, remain a major security concern. While machine learning-based insider threat detection (ITD) methods have shown promising results, their progress is hindered by the scarcity of high-quality data. Enterprise data is sensitive and rarely accessible, while publicly available datasets, when limited in scale due to cost, lack sufficient real-world coverage; and when purely synthetic, they fail to capture rich semantics and realistic user behavior. To address this, we propose Chimera, the first large language model (LLM)-based multi-agent framework that automatically simulates both benign and malicious insider activities and collects diverse logs across diverse enterprise environments. Chimera models each employee with agents that have role-specific behavior and integrates modules for group meetings, pairwise interactions, and autonomous scheduling, capturing realistic organizational dynamics. It incorporates 15 types of insider attacks (e.g., IP theft, system sabotage) and has been deployed to simulate activities in three sensitive domains: technology company, finance corporation, and medical institution, producing a new dataset, ChimeraLog. We assess ChimeraLog via human studies and quantitative analysis, confirming its diversity, realism, and presence of explainable threat patterns. Evaluations of existing ITD methods show an average F1-score of 0.83, which is significantly lower than 0.99 on the CERT dataset, demonstrating ChimeraLog's higher difficulty and utility for advancing ITD research.
- Abstract(参考訳): 内部の脅威は深刻な損失を招きかねないが、大きなセキュリティ上の懸念は残る。
機械学習に基づくインサイダー脅威検出(ITD)手法は有望な結果を示しているが、その進歩は高品質なデータの不足によって妨げられている。
エンタープライズデータはセンシティブでアクセスすることは滅多にないが、公開データセットは、コストのために大規模に制限されている場合、十分な実世界のカバレッジが欠如している。
そこで我々は,最初の大規模言語モデル(LLM)ベースのマルチエージェントフレームワークであるChimeraを提案する。
Chimeraは各従業員に、役割固有の振る舞いを持つエージェントをモデル化し、グループミーティング、ペアインタラクション、自律スケジューリングのためのモジュールを統合し、現実的な組織力学をキャプチャする。
このシステムには15種類のインサイダー攻撃(IP盗難、システム妨害など)が組み込まれており、テクノロジー企業、金融企業、医療機関の3つの機密分野における活動をシミュレートするためにデプロイされ、新たなデータセットであるChimeraLogが作成されている。
我々は人間の研究と定量的分析を通じてChimeraLogを評価し、その多様性、リアリズム、説明可能な脅威パターンの存在を確認した。
既存のITD手法の評価では、平均F1スコアは0.83であり、CERTデータセットでは0.99よりも大幅に低い。
関連論文リスト
- Multimodal AI Systems for Enhanced Laying Hen Welfare Assessment and Productivity Optimization [0.0]
養鶏の未来は、主観的で労働集約的な福祉チェックをデータ駆動のインテリジェントなモニタリングエコシステムに置き換えることに依存する。
伝統的な福祉評価は、人間の観察と単一センサーのデータによって制限されるが、現代の農場における鶏の福祉の複雑な多次元的な性質を完全には捉えられない。
この研究は、生産性と倫理的、科学に基づく動物ケアを一体化する、反応的、一助的モニタリングから、積極的な、精密な福祉システムへの移行の基礎を築いた。
論文 参考訳(メタデータ) (2025-08-11T05:17:16Z) - From MAS to MARS: Coordination Failures and Reasoning Trade-offs in Hierarchical Multi-Agent Robotic Systems within a Healthcare Scenario [3.5262044630932254]
マルチエージェントロボットシステム(MARS)は、物理的およびタスク関連の制約を統合することで、マルチエージェントシステム上に構築される。
高度なマルチエージェントフレームワークが利用可能であるにも関わらず、実際のロボットへのデプロイメントは制限されている。
論文 参考訳(メタデータ) (2025-08-06T17:54:10Z) - LMDG: Advancing Lateral Movement Detection Through High-Fidelity Dataset Generation [0.2399911126932527]
横行運動(LM)攻撃は企業のセキュリティに重大な脅威をもたらす。
LM検出システムの開発と評価は, 現実的, 順調なデータセットの欠如によって妨げられる。
高忠実度LMデータセットを生成するためのスケーラブルなフレームワーク LMDG を提案する。
論文 参考訳(メタデータ) (2025-08-04T22:49:04Z) - FieldWorkArena: Agentic AI Benchmark for Real Field Work Tasks [52.47895046206854]
FieldWorkArenaは、現実世界のフィールドワークをターゲットにしたエージェントAIのベンチマークである。
本稿では、エージェントAIが現実世界の作業環境ベンチマークのために持つべき新しいアクション空間を定義する。
論文 参考訳(メタデータ) (2025-05-26T08:21:46Z) - Towards Effective Identification of Attack Techniques in Cyber Threat Intelligence Reports using Large Language Models [5.304267859042463]
本研究は,Web上で利用可能な脅威レポートから攻撃手法を識別するためのサイバー脅威情報(CTI)抽出手法の性能を評価する。
我々は、Threat Report ATT&CK Mapper(TRAM)やLlama2のようなオープンソースのLarge Language Models(LLM)など、最先端ツールを利用する4つの構成を分析した。
以上の結果から, クラス不均衡, オーバーフィッティング, ドメイン固有の複雑性など, 正確なテクニック抽出を阻害する重要な課題が明らかとなった。
論文 参考訳(メタデータ) (2025-05-06T03:43:12Z) - Collaborative Value Function Estimation Under Model Mismatch: A Federated Temporal Difference Analysis [55.13545823385091]
フェデレーション強化学習(FedRL)は、エージェント間のデータ交換を防止し、データのプライバシを維持しながら協調学習を可能にする。
現実世界のアプリケーションでは、各エージェントは若干異なる遷移ダイナミクスを経験し、固有のモデルミスマッチを引き起こす。
情報共有の適度なレベルでさえ、環境固有のエラーを著しく軽減することを示す。
論文 参考訳(メタデータ) (2025-03-21T18:06:28Z) - Robust Synthetic Data-Driven Detection of Living-Off-the-Land Reverse Shells [14.710331873072146]
LOTL(Living-off-the-land)技術は、セキュリティ運用において大きな課題となる。
セキュリティ情報およびイベント管理(SIEM)ソリューションとして,サイバー防衛システムのための堅牢な拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T13:49:23Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。