論文の概要: Spatiotemporal Motion Synchronization for Snowboard Big Air
- arxiv url: http://arxiv.org/abs/2112.10909v1
- Date: Mon, 20 Dec 2021 23:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:15:09.683450
- Title: Spatiotemporal Motion Synchronization for Snowboard Big Air
- Title(参考訳): スノーボード大空気の時空間運動同期
- Authors: Seiji Matsumura, Dan Mikami, Naoki Saijo, Makio Kashino
- Abstract要約: 本研究では,スノーボード大空練習に既存の画像処理技術を用いた従来型だがもっともらしい解を提案する。
プロのスノーボーダーにインタビューしたところ、時間的に整列した動画は身体の動きの微妙な違いを正確に識別することができた。
- 参考スコア(独自算出の注目度): 6.054558868204333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During the training for snowboard big air, one of the most popular winter
sports, athletes and coaches extensively shoot and check their jump attempts
using a single camera or smartphone. However, by watching videos sequentially,
it is difficult to compare the precise difference in performance between two
trials. Therefore, side-by-side display or overlay of two videos may be helpful
for training. To accomplish this, the spatial and temporal alignment of
multiple performances must be ensured. In this study, we propose a conventional
but plausible solution using the existing image processing techniques for
snowboard big air training. We conducted interviews with expert snowboarders
who stated that the spatiotemporally aligned videos enabled them to precisely
identify slight differences in body movements. The results suggest that the
proposed method can be used during the training of snowboard big air.
- Abstract(参考訳): スノーボード・ビッグエアのトレーニング中は、最も人気のある冬季スポーツの一つであり、アスリートやコーチは、単一のカメラやスマートフォンを使ってジャンプの試みを広範囲に撮影し、チェックする。
しかし,ビデオの連続的な視聴では,2つの試行の精度差を比較することは困難である。
したがって、2つのビデオの並べ表示やオーバーレイはトレーニングに役立つかもしれない。
これを実現するためには、複数のパフォーマンスの空間的および時間的アライメントを確保する必要がある。
本研究では,スノーボード大空練習において,既存の画像処理技術を用いた従来型だが有効な手法を提案する。
プロのスノーボーダーにインタビューしたところ、時空間対応ビデオは身体の動きの微妙な違いを正確に識別することができた。
その結果,本手法はスノーボードビッグエアのトレーニングに使用できることが示唆された。
関連論文リスト
- ExpertAF: Expert Actionable Feedback from Video [81.46431188306397]
本研究では,身体活動を行う人の映像から行動可能なフィードバックを生成する新しい手法を提案する。
提案手法は,映像のデモンストレーションとそれに伴う3Dボディーポーズを取り,専門家による解説を生成する。
提案手法は,マルチモーダルな入力の組み合わせを解析し,フルスペクトルで実用的なコーチングを出力することができる。
論文 参考訳(メタデータ) (2024-08-01T16:13:07Z) - Investigating Event-Based Cameras for Video Frame Interpolation in Sports [59.755469098797406]
本稿では,スポーツスローモーションビデオを生成するためのイベントベースビデオフレーム補間(VFI)モデルについて検討する。
特に,スポーツ映像を撮影するためのRGBとイベントベースカメラを含むバイカメラ記録装置の設計と実装を行い,両カメラの時間的整列と空間的登録を行う。
実験により,市販のイベントベースVFIモデルであるTimeLensが,スポーツビデオのスローモーション映像を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2024-07-02T15:39:08Z) - Animate Your Motion: Turning Still Images into Dynamic Videos [58.63109848837741]
本稿では,マルチモーダル入力を管理する新しい手法であるScene and Motion Conditional Diffusion (SMCD)を紹介する。
SMCDは、認識されたモーションコンディショニングモジュールを組み込み、シーン条件を統合するための様々なアプローチを調査する。
我々のデザインは映像の品質、動きの精度、セマンティック・コヒーレンスを大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-15T10:36:24Z) - Visualizing Skiers' Trajectories in Monocular Videos [14.606629147104595]
SkiTraVisは,スキーヤーが競技中に横断する点列を可視化するアルゴリズムである。
実世界のプロコンペティションのビデオで、可視化エラー、計算効率、適用可能性の定量化実験を行った。
論文 参考訳(メタデータ) (2023-04-06T11:06:37Z) - Tubelet-Contrastive Self-Supervision for Video-Efficient Generalization [23.245275661852446]
動きに着目した映像表現を学習するための自己教師付き手法を提案する。
我々は、同じローカルモーションダイナミクスを持つビデオ間の類似性を学ぶが、それ以外は異なる外観を持つ。
トレーニング済みビデオの25%しか使用していない場合,本手法では性能が維持される。
論文 参考訳(メタデータ) (2023-03-20T10:31:35Z) - Video-Based Reconstruction of the Trajectories Performed by Skiers [14.572756832049285]
そこで本稿では,スポーツ選手が演奏中にトラバースした点列をビデオベースで再構成する手法を提案する。
我々のプロトタイプは、アスリートの動きを再現し、カメラの視点でそれを視覚化するためのディープラーニングベースのアルゴリズムのパイプラインで構成されています。
論文 参考訳(メタデータ) (2021-12-17T17:40:06Z) - Learning to Run with Potential-Based Reward Shaping and Demonstrations
from Video Data [70.540936204654]
「走ることを学ぶ」競技は、二本足のヒューマノイドボディを最高速度で模擬レースコースで走るように訓練することであった。
すべての提出者は、強化学習(RL)へのタブラララサアプローチを採り入れ、比較的速いが最適な実行動作は得られなかった。
本研究では,人間のランニング映像から得られるデータを用いて,ヒューマノイド学習エージェントの報酬を形成できることを示す。
論文 参考訳(メタデータ) (2020-12-16T09:46:58Z) - Do You See What I See? Coordinating Multiple Aerial Cameras for Robot
Cinematography [9.870369982132678]
ショットの多様性を最大化し、衝突を回避しつつ、ダイナミックな目標を記録できるリアルタイムマルチUAVコーディネートシステムを開発した。
我々の調整方式は計算コストが低く、平均1.17ミリ秒で10秒の時間帯で3UAVのチームを計画できることが示される。
論文 参考訳(メタデータ) (2020-11-10T22:43:25Z) - RSPNet: Relative Speed Perception for Unsupervised Video Representation
Learning [100.76672109782815]
本研究では,未ラベル映像のみから動作特徴と外観特徴の両方を学習するための教師なし映像表現学習について検討する。
動作と外観の両方をうまくモデル化するために、適切な自己指導タスクを構築することは困難である。
再生速度を知覚し、2つのビデオクリップ間の相対速度をラベルとして利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-27T16:42:50Z) - AIM 2019 Challenge on Video Temporal Super-Resolution: Methods and
Results [129.15554076593762]
本稿では,ビデオ時空間超解像(フレーム)におけるAIMの最初の課題についてレビューする。
低フレームレート(15fps)のビデオシーケンスから、チャレンジ参加者はより高いフレームレート(60fps)のビデオシーケンスを提出するよう求められる。
ハンドヘルドカメラで撮影した多様なビデオから得られたREDS VTSRデータセットをトレーニングおよび評価目的で使用した。
論文 参考訳(メタデータ) (2020-05-04T01:51:23Z) - Multimodal and multiview distillation for real-time player detection on
a football field [31.355119048749618]
本研究では,単一の狭角熱カメラによって支援された,ユニークな安価で広角の魚眼カメラから選手を検知するシステムを開発した。
魚眼カメラで撮影した全フィールド上の選手を検出するのに,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-04-16T09:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。