論文の概要: Learning Event-Based Shooter Models from Virtual Reality Experiments
- arxiv url: http://arxiv.org/abs/2602.06023v1
- Date: Thu, 05 Feb 2026 18:56:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.145275
- Title: Learning Event-Based Shooter Models from Virtual Reality Experiments
- Title(参考訳): バーチャルリアリティ実験によるイベントベースシュータモデルの学習
- Authors: Christopher A. McClurg, Alan R. Wagner,
- Abstract要約: バーチャルリアリティ(VR)は、学校銃撃などのリスクの高いシナリオにおいて、学校のセキュリティ対策を評価する強力なツールとして登場した。
しかし、VRにおける新たな介入を評価するには、各条件に対する新しい参加者コホートを募集する必要があるため、大規模または反復的な評価が困難になる。
我々は,VR研究における参加者行動から学習したプロセスとして,シューティング動作と地域内動作をモデル化するデータ駆動離散イベントシミュレータ(DES)を開発した。
- 参考スコア(独自算出の注目度): 2.2774471443318753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual reality (VR) has emerged as a powerful tool for evaluating school security measures in high-risk scenarios such as school shootings, offering experimental control and high behavioral fidelity. However, assessing new interventions in VR requires recruiting new participant cohorts for each condition, making large-scale or iterative evaluation difficult. These limitations are especially restrictive when attempting to learn effective intervention strategies, which typically require many training episodes. To address this challenge, we develop a data-driven discrete-event simulator (DES) that models shooter movement and in-region actions as stochastic processes learned from participant behavior in VR studies. We use the simulator to examine the impact of a robot-based shooter intervention strategy. Once shown to reproduce key empirical patterns, the DES enables scalable evaluation and learning of intervention strategies that are infeasible to train directly with human subjects. Overall, this work demonstrates a high-to-mid fidelity simulation workflow that provides a scalable surrogate for developing and evaluating autonomous school-security interventions.
- Abstract(参考訳): バーチャルリアリティ(VR)は、学校の射撃のようなリスクの高いシナリオにおける学校のセキュリティ対策を評価する強力なツールとして登場し、実験的な制御と行動の忠実度を提供する。
しかし、VRにおける新たな介入を評価するには、各条件に対する新しい参加者コホートを募集する必要があるため、大規模または反復的な評価が困難になる。
これらの制限は、多くのトレーニングエピソードを必要とする効果的な介入戦略を学習しようとするときに特に制限される。
この課題に対処するために,VR研究における参加者行動から学習した確率過程として,シューティング動作と地域内動作をモデル化するデータ駆動離散イベントシミュレータ(DES)を開発した。
シミュレータを用いて,ロボットによるシューティング介入戦略の効果を検証した。
主要な経験的パターンを再現することが示されると、DESは、人間の被験者と直接トレーニングすることができない介入戦略のスケーラブルな評価と学習を可能にします。
全体として、この研究は、自律的な学校のセキュリティ介入の開発と評価のためのスケーラブルなサロゲートを提供する、ハイ・ツー・ミドル・フィデリティ・シミュレーションワークフローを示している。
関連論文リスト
- ARTIS: Agentic Risk-Aware Test-Time Scaling via Iterative Simulation [72.78362530982109]
ARTIS(Agenic Risk-Aware Test-Time Scaling via Iterative Simulation)は、コミットメントから探索を分離するフレームワークである。
LLMをベースとした簡易シミュレータは, 希少かつ高インパクトな障害モードの捕捉に苦慮していることを示す。
本稿では,障害発生行動の忠実度を強調するリスク認識ツールシミュレータを提案する。
論文 参考訳(メタデータ) (2026-02-02T06:33:22Z) - Post-Training and Test-Time Scaling of Generative Agent Behavior Models for Interactive Autonomous Driving [3.8612647047433217]
グループ相対行動最適化は、行動リアリズムを維持しながら安全性を40%以上改善する。
Warm-Kは、動き選択における一貫性と多様性のバランスをとる温かいスタートのTop-Kサンプリング戦略である。
論文 参考訳(メタデータ) (2025-12-15T12:18:50Z) - UserRL: Training Interactive User-Centric Agent via Reinforcement Learning [104.63494870852894]
強化学習(Reinforcement Learning, RL)は、動的多ターン相互作用に関わるエージェントモデルのトレーニングにおいて有望であることを示す。
我々は,標準化された体育環境を通じて,ユーザ中心の能力のトレーニングと評価を行う統一的なフレームワークであるUserRLを提案する。
論文 参考訳(メタデータ) (2025-09-24T03:33:20Z) - DUMB and DUMBer: Is Adversarial Training Worth It in the Real World? [15.469010487781931]
敵の例は小さく、しばしば、愚かな機械学習モデルのために作られた、知覚不能な摂動である。
侵入攻撃(英語: Evasion attack)とは、入力がテスト時に誤分類を引き起こすように修正される敵攻撃の一種であり、その伝達性のために特に不快である。
本稿では,DUMB法の基礎の上に構築された攻撃フレームワークであるDUMBerを紹介し,敵の訓練したモデルの弾力性を評価する。
論文 参考訳(メタデータ) (2025-06-23T11:16:21Z) - CurricuVLM: Towards Safe Autonomous Driving via Personalized Safety-Critical Curriculum Learning with Vision-Language Models [1.6612510324510592]
CurricuVLMは、自律運転エージェントのためのパーソナライズされたカリキュラム学習を可能にする新しいフレームワークである。
我々のアプローチでは、エージェントの動作を分析し、パフォーマンスの弱点を特定し、動的に調整されたトレーニングシナリオを生成するために、視覚言語モデル(VLM)を利用する。
CurricuVLMは、通常のシナリオと安全クリティカルなシナリオの両方において、最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-02-21T00:42:40Z) - A survey of air combat behavior modeling using machine learning [0.0]
本調査では, 空気戦闘行動のモデル化における機械学習手法の適用について検討する。
従来の行動モデリングは労働集約的であり、開発ステップ間で重要なドメイン知識を失う傾向があります。
この調査では、応用、行動モデルタイプ、一般的な機械学習手法、適応的で現実的な行動エージェントの開発における技術的および人間的課題について調査している。
論文 参考訳(メタデータ) (2024-04-22T07:54:56Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。