論文の概要: PHASE: Passive Human Activity Simulation Evaluation
- arxiv url: http://arxiv.org/abs/2507.13505v1
- Date: Thu, 17 Jul 2025 19:24:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.122685
- Title: PHASE: Passive Human Activity Simulation Evaluation
- Title(参考訳): PHASE:パッシブ・ヒューマン・アクティビティ・シミュレーション評価
- Authors: Steven Lamp, Jason D. Hiser, Anh Nguyen-Tuong, Jack W. Davidson,
- Abstract要約: 本稿では、Zeek接続ログを分析し、90%以上の精度で人間と人間を区別する機械学習フレームワークPHASEを提案する。
機械学習に使用されるすべてのネットワークアクティビティは、不要なネットワークトラフィックやアーティファクトの導入を避けるために、Zeekネットワークアプライアンスを介して収集される。
ケーススタディでは、合成ユーザペルソナを評価し、行動リアリズムを損なう異なる非人間パターンを識別する。
- 参考スコア(独自算出の注目度): 4.741074429403684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cybersecurity simulation environments, such as cyber ranges, honeypots, and sandboxes, require realistic human behavior to be effective, yet no quantitative method exists to assess the behavioral fidelity of synthetic user personas. This paper presents PHASE (Passive Human Activity Simulation Evaluation), a machine learning framework that analyzes Zeek connection logs and distinguishes human from non-human activity with over 90\% accuracy. PHASE operates entirely passively, relying on standard network monitoring without any user-side instrumentation or visible signs of surveillance. All network activity used for machine learning is collected via a Zeek network appliance to avoid introducing unnecessary network traffic or artifacts that could disrupt the fidelity of the simulation environment. The paper also proposes a novel labeling approach that utilizes local DNS records to classify network traffic, thereby enabling machine learning analysis. Furthermore, we apply SHAP (SHapley Additive exPlanations) analysis to uncover temporal and behavioral signatures indicative of genuine human users. In a case study, we evaluate a synthetic user persona and identify distinct non-human patterns that undermine behavioral realism. Based on these insights, we develop a revised behavioral configuration that significantly improves the human-likeness of synthetic activity yielding a more realistic and effective synthetic user persona.
- Abstract(参考訳): サイバーレンジ、ハニーポット、サンドボックスなどのサイバーセキュリティシミュレーション環境は、現実的な人間の振る舞いを効果的にする必要があるが、合成ユーザペルソナの行動の忠実さを評価するための定量的な方法はない。
本稿では、Zeek接続ログを分析し、90%以上の精度で非人間活動と区別する機械学習フレームワークPHASE(Passive Human Activity Simulation Evaluation)を提案する。
PHASEは完全に受動的に動作し、ユーザー側の計器や目に見える監視の兆候を使わずに、標準的なネットワーク監視に依存している。
機械学習に使用されるすべてのネットワークアクティビティは、Zeekネットワークアプライアンスを介して収集され、不要なネットワークトラフィックや、シミュレーション環境の忠実さを損なう可能性のあるアーティファクトを導入することを避ける。
また、ローカルDNSレコードを用いてネットワークトラフィックを分類し、機械学習解析を可能にする新しいラベリング手法を提案する。
さらに、SHAP分析を用いて、真のユーザを示す時間的および行動的シグネチャを明らかにする。
ケーススタディでは、合成ユーザペルソナを評価し、行動リアリズムを損なう異なる非人間パターンを識別する。
これらの知見に基づき、より現実的で効果的な合成ユーザ・ペルソナを生み出す合成活動の人間的類似性を大幅に改善する行動構成を改訂した。
関連論文リスト
- Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - Test Automation for Interactive Scenarios via Promptable Traffic Simulation [48.240394447516664]
本稿では,対話型シナリオにおけるAVプランナ評価のための,現実的かつ安全クリティカルな人間の行動を生成する自動化手法を提案する。
我々は低次元目標位置を用いて複雑な人間の行動のパラメータ化を行い、それをプロンプト可能な交通シミュレータProSimに入力する。
テスト生成を自動化するために,目標領域を探索し,ベイズ最適化を用いて安全クリティカルな動作を効率的に識別するプロンプト生成モジュールを導入する。
論文 参考訳(メタデータ) (2025-06-01T22:29:32Z) - Discovery and Deployment of Emergent Robot Swarm Behaviors via Representation Learning and Real2Sim2Real Transfer [8.780553562960677]
限られた能力を持つロボットの群れを考えると、我々は起こりうる行動の集合を自動的に発見することを模索する。
本稿では,Real2Sim2Real Behavior Discovery by Self-Supervised Representation Learningを提案する。
論文 参考訳(メタデータ) (2025-02-21T21:04:47Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - HARPS: An Online POMDP Framework for Human-Assisted Robotic Planning and
Sensing [1.3678064890824186]
HARPS(Human Assisted Robotic Planning and Sensing)フレームワークは、ロボットチームにおけるアクティブなセマンティックセンシングと計画のためのフレームワークである。
このアプローチにより、人間が不規則にモデル構造を強制し、不確実な環境で意味的なソフトデータの範囲を拡張することができる。
大規模部分構造環境におけるUAV対応ターゲット探索アプリケーションのシミュレーションは、時間と信念状態の推定において著しく改善されている。
論文 参考訳(メタデータ) (2021-10-20T00:41:57Z) - Bridging the Last Mile in Sim-to-Real Robot Perception via Bayesian
Active Learning [34.910660020436424]
本研究では,ベイジアン能動学習に基づくパイプラインを提案し,手動アノテーションの取り組みを最小化することを目的とする。
本研究では,2つのオブジェクト検出データ集合に対する実験により,同値ギャップを埋めるために必要なラベル付けの労力を小さめに抑えることができることを示した。
論文 参考訳(メタデータ) (2021-09-23T14:45:40Z) - Affect-Aware Deep Belief Network Representations for Multimodal
Unsupervised Deception Detection [3.04585143845864]
ラベルを必要とせず、ビデオの現実世界、高い盗難を検出するための教師なしのアプローチ。
本稿では,感情を意識しないDeep Belief Networks (DBN) の新たなアプローチを提案する。
また、DBNモデルを訓練する機能として顔の感情を使用するだけでなく、音声・視覚表現の整列器として顔の感情を利用するDBN訓練手順も導入する。
論文 参考訳(メタデータ) (2021-08-17T22:07:26Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition [11.290467061493189]
本研究では,人間の行動にかかわるポーズや物体の観察から同時に学習することで,人間の行動認識に対する新しいアプローチを提案する。
提案手法は従来の手法より優れ,104Hzの処理速度で人間の行動認識のリアルタイム性能を得る。
論文 参考訳(メタデータ) (2020-03-26T22:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。