論文の概要: Scope Meets Screen: Lessons Learned in Designing Composite Visualizations for Marksmanship Training Across Skill Levels
- arxiv url: http://arxiv.org/abs/2507.00333v1
- Date: Tue, 01 Jul 2025 00:16:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.133941
- Title: Scope Meets Screen: Lessons Learned in Designing Composite Visualizations for Marksmanship Training Across Skill Levels
- Title(参考訳): Scope Meets Screen: スキルレベルを越えたマークマンシップトレーニングのための複合ヴィジュアライゼーション設計の教訓
- Authors: Emin Zerman, Jonas Carlsson, Mårten Sjöström,
- Abstract要約: 本報告では, 初級者, 熟練者双方に対して, 射撃可視化システムを提案し, その有効性を評価する。
このデザインスタディから得られた洞察は、コーチングのための視覚分析とファースト・パーソン・ビデオを統合することのより広い価値を示している。
- 参考スコア(独自算出の注目度): 3.345437353879255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Marksmanship practices are required in various professions, including police, military personnel, hunters, as well as sports shooters, such as Olympic shooting, biathlon, and modern pentathlon. The current form of training and coaching is mostly based on repetition, where the coach does not see through the eyes of the shooter, and analysis is limited to stance and accuracy post-session. In this study, we present a shooting visualization system and evaluate its perceived effectiveness for both novice and expert shooters. To achieve this, five composite visualizations were developed using first-person shooting video recordings enriched with overlaid metrics and graphical summaries. These views were evaluated with 10 participants (5 expert marksmen, 5 novices) through a mixed-methods study including shot-count and aiming interpretation tasks, pairwise preference comparisons, and semi-structured interviews. The results show that a dashboard-style composite view, combining raw video with a polar plot and selected graphs, was preferred in 9 of 10 cases and supported understanding across skill levels. The insights gained from this design study point to the broader value of integrating first-person video with visual analytics for coaching, and we suggest directions for applying this approach to other precision-based sports.
- Abstract(参考訳): マルコスマンシップの実践は、警察、軍人、ハンター、オリンピックシューティング、バイアスロン、近代ペンタトロンなどのスポーツシューターなど様々な職業で必要とされる。
トレーニングとコーチングの現在の形式は、主に反復に基づいており、コーチはシューターの目を通して見ることができず、分析はスタンスとセッション後の正確さに限られている。
そこで本研究では,初級および熟練シューティングの双方に対して,撮影可視化システムを提案し,その有効性を評価した。
これを実現するために、オーバーレイメトリックとグラフィカル・サマリーを具備した1対1の撮影ビデオ記録を用いて5つの複合可視化を開発した。
これらの見解を10名 (専門家5名, 初心者5名) で評価し, ショットカウントと解釈課題, ペアワイズ選好比較, セミ構造化面接を行った。
その結果,10例中9例において,生ビデオと極性プロットと選択したグラフを組み合わせたダッシュボード型複合ビューが好まれ,スキルレベルの理解が支援された。
このデザイン研究から得られた知見は、一対一のビデオと視覚分析を統合してコーチングを行うことのより広い価値を示唆し、この手法を他の高精度スポーツに適用するための方向性を提案する。
関連論文リスト
- ExpertAF: Expert Actionable Feedback from Video [81.46431188306397]
本研究では,バスケットボールやサッカーなどの身体活動を行う人の映像から,アクション可能なフィードバックを生成する新しい手法を提案する。
提案手法は,映像のデモンストレーションとそれに伴う3Dボディーポーズを取り,その人が何をしているか,何が改善できるかを解説した専門家のコメントを生成する。
Ego-Exo4Dの[29]ビデオの熟練した活動と専門家の解説を、強力な言語モデルとともに活用して、このタスクのための弱い教師付きトレーニングデータセットを作成する方法を示す。
論文 参考訳(メタデータ) (2024-08-01T16:13:07Z) - ViSTec: Video Modeling for Sports Technique Recognition and Tactical
Analysis [19.945083591851517]
ViSTecは、人間の認知にインスパイアされたビデオベースのスポーツ技術認識モデルである。
提案手法は,ストロークシーケンスにおける戦略的知識を明示的にモデル化するグラフを統合し,文脈的帰納バイアスによる技術認識を強化する。
中国の卓球チームの専門家によるケーススタディは、分析を自動化するモデルの能力を検証する。
論文 参考訳(メタデータ) (2024-02-25T02:04:56Z) - Estimation of control area in badminton doubles with pose information
from top and back view drone videos [11.679451300997016]
我々はバドミントンダブルスでトップとバックビューから最初の注釈付きドローンデータセットを提示する。
チームワークのパフォーマンスを評価するために,制御領域の確率マップを推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-07T11:18:39Z) - A Survey on Video Action Recognition in Sports: Datasets, Methods and
Applications [60.3327085463545]
本稿では,スポーツ分析のための映像行動認識に関する調査を行う。
サッカー、バスケットボール、バレーボール、ホッケー、フィギュアスケート、体操、卓球、ダイビング、バドミントンなど10種以上のスポーツを紹介します。
本研究では,サッカー,バスケットボール,卓球,フィギュアスケート動作認識をサポートするPaddlePaddleを用いたツールボックスを開発した。
論文 参考訳(メタデータ) (2022-06-02T13:19:36Z) - MERLOT Reserve: Neural Script Knowledge through Vision and Language and
Sound [90.1857707251566]
MERLOT Reserveは、時間とともに動画を共同で表現するモデルである。
我々は、テキストとオーディオのスニペットをMASKトークンに置き換え、正しいマスクアウトスニペットを選択して学習する。
私たちの目標は代替手段よりも早く学習し、大規模に機能します。
論文 参考訳(メタデータ) (2022-01-07T19:00:21Z) - A Unified Framework for Shot Type Classification Based on Subject
Centric Lens [89.26211834443558]
主観的誘導ネットワーク(SGNet)を用いたショット型認識のための学習フレームワークを提案する。
SGNetは、ショットの主題と背景を2つのストリームに分け、それぞれがスケールとムーブメントタイプの分類のための別々のガイダンスマップとして機能する。
大規模なデータセットであるMovieShotsを構築し、7Kフィルムトレーラーから46K枚の写真と、それらのスケールとムーブメントのアノテーションを含む。
論文 参考訳(メタデータ) (2020-08-08T15:49:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。