論文の概要: Video-Based Performance Evaluation for ECR Drills in Synthetic Training Environments
- arxiv url: http://arxiv.org/abs/2512.23819v1
- Date: Mon, 29 Dec 2025 19:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.18661
- Title: Video-Based Performance Evaluation for ECR Drills in Synthetic Training Environments
- Title(参考訳): 合成学習環境におけるECRドリルの映像による性能評価
- Authors: Surya Rayala, Marcos Quinones-Grueiro, Naveeduddin Mohammed, Ashwin T S, Benjamin Goldberg, Randall Spain, Paige Lawton, Gautam Biswas,
- Abstract要約: 本稿では、追加ハードウェアを必要とせずに、トレーニングビデオからパフォーマンス分析を導出するビデオベースのアセスメントパイプラインを提案する。
我々は、心理運動の流布度、状況認識、チームの調整を計測するタスク固有のメトリクスを開発する。
今後の作業には、分析を3Dビデオデータに拡張することや、ビデオ分析を活用して、STE内でスケーラブルな評価を可能にすることが含まれる。
- 参考スコア(独自算出の注目度): 1.6162271703130058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective urban warfare training requires situational awareness and muscle memory, developed through repeated practice in realistic yet controlled environments. A key drill, Enter and Clear the Room (ECR), demands threat assessment, coordination, and securing confined spaces. The military uses Synthetic Training Environments that offer scalable, controlled settings for repeated exercises. However, automatic performance assessment remains challenging, particularly when aiming for objective evaluation of cognitive, psychomotor, and teamwork skills. Traditional methods often rely on costly, intrusive sensors or subjective human observation, limiting scalability and accuracy. This paper introduces a video-based assessment pipeline that derives performance analytics from training videos without requiring additional hardware. By utilizing computer vision models, the system extracts 2D skeletons, gaze vectors, and movement trajectories. From these data, we develop task-specific metrics that measure psychomotor fluency, situational awareness, and team coordination. These metrics feed into an extended Cognitive Task Analysis (CTA) hierarchy, which employs a weighted combination to generate overall performance scores for teamwork and cognition. We demonstrate the approach with a case study of real-world ECR drills, providing actionable, domain specific metrics that capture individual and team performance. We also discuss how these insights can support After Action Reviews with interactive dashboards within Gamemaster and the Generalized Intelligent Framework for Tutoring (GIFT), providing intuitive and understandable feedback. We conclude by addressing limitations, including tracking difficulties, ground-truth validation, and the broader applicability of our approach. Future work includes expanding analysis to 3D video data and leveraging video analysis to enable scalable evaluation within STEs.
- Abstract(参考訳): 効果的な都市戦訓練には、現実的で制御された環境で繰り返し実施される状況認識と筋肉記憶が必要である。
主要なドリルであるEnter and Clear the Room (ECR)は、脅威評価、調整、閉じ込められた空間の確保を要求する。
軍では、反復演習のためにスケーラブルで制御された設定を提供するシンセティックトレーニング環境を使用している。
しかし、特に認知、精神運動、チームワークスキルの客観的評価を目指す場合、自動パフォーマンス評価は依然として困難である。
従来の手法は、高価で侵入的なセンサーや主観的な人間の観察に頼り、スケーラビリティと精度を制限している。
本稿では、追加ハードウェアを必要とせずに、トレーニングビデオからパフォーマンス分析を導出するビデオベースのアセスメントパイプラインを提案する。
コンピュータビジョンモデルを利用することで、システムは2次元の骨格、視線ベクトル、運動軌跡を抽出する。
これらのデータから、精神運動の流速、状況認識、チーム調整を測定するタスク固有のメトリクスを開発する。
これらのメトリクスは、チームワークと認知のための全体的なパフォーマンススコアを生成するために、重み付けの組み合わせを使用する、拡張された認知タスク分析(CTA)階層にフィードされる。
実際のECRドリルのケーススタディでこのアプローチを実演し、個人とチームのパフォーマンスをキャプチャする実行可能な、ドメイン固有のメトリクスを提供します。
また、これらの洞察が、Gamemaster内のインタラクティブダッシュボードと、GIFT(Generalized Intelligent Framework for Tutoring)を使って、直感的で理解可能なフィードバックを提供することで、After Action Reviewsをどのようにサポートできるかについても論じる。
我々は,追跡困難,地道検証,アプローチの適用性など,限界に対処して結論付ける。
今後の作業には、分析を3Dビデオデータに拡張することや、ビデオ分析を活用して、STE内でスケーラブルな評価を可能にすることが含まれる。
関連論文リスト
- Watch and Learn: Learning to Use Computers from Online Videos [50.10702690339142]
Watch & Learn(W&L)は、インターネット上で簡単に利用できる人間のデモビデオを、大規模に実行可能なUIトラジェクトリに変換するフレームワークである。
我々は,タスク対応ビデオ検索を用いた逆動的ラベリングパイプラインを開発し,生のウェブビデオから53k以上の高品質なトラジェクトリを生成する。
これらの結果から,実世界展開に向けたCUAの実践的かつスケーラブルな基盤として,Webスケールの人間デモビデオが注目されている。
論文 参考訳(メタデータ) (2025-10-06T10:29:00Z) - Trainee Action Recognition through Interaction Analysis in CCATT Mixed-Reality Training [1.5641818606249476]
重要なケア航空輸送チームのメンバーは、飛行中に人工呼吸器、IVポンプ、吸引装置を管理することで重傷を負った兵士を安定させなければならない。
シミュレーションとマルチモーダルデータ分析の最近の進歩は、より客観的で包括的なパフォーマンス評価を可能にする。
本研究では, CCATT のメンバーが, エアロメディカル避難の高圧条件を再現する混合現実感シミュレーションを用いて, どのように訓練されているかを検討する。
論文 参考訳(メタデータ) (2025-09-22T15:19:45Z) - From Seeing to Experiencing: Scaling Navigation Foundation Models with Reinforcement Learning [59.88543114325153]
本稿では,航法基礎モデルの強化学習能力を高めるためのSeeing-to-Experiencingフレームワークを提案する。
S2Eは、ビデオの事前トレーニングとRLによるポストトレーニングの長所を組み合わせたものだ。
実世界のシーンを3DGSで再現した3D画像に基づく総合的なエンドツーエンド評価ベンチマークであるNavBench-GSを構築した。
論文 参考訳(メタデータ) (2025-07-29T17:26:10Z) - From Sight to Insight: Unleashing Eye-Tracking in Weakly Supervised Video Salient Object Detection [60.11169426478452]
本稿では,弱い監督下での健全な物体の検出を支援するために,固定情報を導入することを目的とする。
特徴学習過程における位置と意味のガイダンスを提供するために,位置と意味の埋め込み (PSE) モジュールを提案する。
Intra-Inter Mixed Contrastive (MCII)モデルは、弱い監督下での時間的モデリング能力を改善する。
論文 参考訳(メタデータ) (2025-06-30T05:01:40Z) - Open-World Drone Active Tracking with Goal-Centered Rewards [62.21394499788672]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATは,世界初となるエア・ツー・グラウンド・トラッキング・ベンチマークである。
また,複雑なシナリオにおけるドローン追跡目標の性能向上を目的としたGC-VATを提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Evaluating Robustness of Visual Representations for Object Assembly Task
Requiring Spatio-Geometrical Reasoning [8.626019848533707]
本稿では,オブジェクト・アセンブリ・タスクのコンテキストにおける視覚表現の堅牢性の評価と評価に焦点をあてる。
我々は視覚前訓練モデルを視覚エンコーダとして利用するビズモータ政策学習の一般的な枠組みを用いる。
本研究は、両腕操作装置に適用する場合、特にグリップ変動に対して、この枠組みの頑健性について検討する。
論文 参考訳(メタデータ) (2023-10-15T20:41:07Z) - SS-VAERR: Self-Supervised Apparent Emotional Reaction Recognition from
Video [61.21388780334379]
この研究は、自己監督的な方法で行われるビデオのみの入力からの明らかな感情的反応の認識に焦点を当てる。
ネットワークは、まず異なる自己教師付きプレテキストタスクで事前訓練され、その後、下流のターゲットタスクで微調整される。
論文 参考訳(メタデータ) (2022-10-20T15:21:51Z) - Embodied Visual Active Learning for Semantic Segmentation [33.02424587900808]
本研究では,エージェントが3次元環境を探索し,視覚シーン理解の獲得を目指す,具体化されたビジュアルアクティブラーニングの課題について検討する。
我々は、学習と事前指定の両方のエージェントのバッテリーを開発し、環境に関する異なるレベルの知識で開発する。
本研究では,matterport3dシミュレータを用いて提案手法を広範囲に評価し,本手法が比較対象よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-17T11:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。