論文の概要: Spatiotemporal Motion Synchronization for Snowboard Big Air
- arxiv url: http://arxiv.org/abs/2112.10909v1
- Date: Mon, 20 Dec 2021 23:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:15:09.683450
- Title: Spatiotemporal Motion Synchronization for Snowboard Big Air
- Title(参考訳): スノーボード大空気の時空間運動同期
- Authors: Seiji Matsumura, Dan Mikami, Naoki Saijo, Makio Kashino
- Abstract要約: 本研究では,スノーボード大空練習に既存の画像処理技術を用いた従来型だがもっともらしい解を提案する。
プロのスノーボーダーにインタビューしたところ、時間的に整列した動画は身体の動きの微妙な違いを正確に識別することができた。
- 参考スコア(独自算出の注目度): 6.054558868204333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During the training for snowboard big air, one of the most popular winter
sports, athletes and coaches extensively shoot and check their jump attempts
using a single camera or smartphone. However, by watching videos sequentially,
it is difficult to compare the precise difference in performance between two
trials. Therefore, side-by-side display or overlay of two videos may be helpful
for training. To accomplish this, the spatial and temporal alignment of
multiple performances must be ensured. In this study, we propose a conventional
but plausible solution using the existing image processing techniques for
snowboard big air training. We conducted interviews with expert snowboarders
who stated that the spatiotemporally aligned videos enabled them to precisely
identify slight differences in body movements. The results suggest that the
proposed method can be used during the training of snowboard big air.
- Abstract(参考訳): スノーボード・ビッグエアのトレーニング中は、最も人気のある冬季スポーツの一つであり、アスリートやコーチは、単一のカメラやスマートフォンを使ってジャンプの試みを広範囲に撮影し、チェックする。
しかし,ビデオの連続的な視聴では,2つの試行の精度差を比較することは困難である。
したがって、2つのビデオの並べ表示やオーバーレイはトレーニングに役立つかもしれない。
これを実現するためには、複数のパフォーマンスの空間的および時間的アライメントを確保する必要がある。
本研究では,スノーボード大空練習において,既存の画像処理技術を用いた従来型だが有効な手法を提案する。
プロのスノーボーダーにインタビューしたところ、時空間対応ビデオは身体の動きの微妙な違いを正確に識別することができた。
その結果,本手法はスノーボードビッグエアのトレーニングに使用できることが示唆された。
関連論文リスト
- Visualizing Skiers' Trajectories in Monocular Videos [14.606629147104595]
SkiTraVisは,スキーヤーが競技中に横断する点列を可視化するアルゴリズムである。
実世界のプロコンペティションのビデオで、可視化エラー、計算効率、適用可能性の定量化実験を行った。
論文 参考訳(メタデータ) (2023-04-06T11:06:37Z) - Tubelet-Contrastive Self-Supervision for Video-Efficient Generalization [23.245275661852446]
動きに着目した映像表現を学習するための自己教師付き手法を提案する。
我々は、同じローカルモーションダイナミクスを持つビデオ間の類似性を学ぶが、それ以外は異なる外観を持つ。
トレーニング済みビデオの25%しか使用していない場合,本手法では性能が維持される。
論文 参考訳(メタデータ) (2023-03-20T10:31:35Z) - Temporal and Contextual Transformer for Multi-Camera Editing of TV Shows [83.54243912535667]
まず、コンサート、スポーツゲーム、ガラショー、コンテストを含む4つの異なるシナリオを用いて、この設定に関する新しいベンチマークを収集する。
14時間編集されたビデオに貢献する88時間の生のビデオが含まれている。
歴史的ショットやその他の視点からのヒントを利用してショット遷移決定を行う新しいアプローチである時間的・文脈的変換器を提案する。
論文 参考訳(メタデータ) (2022-10-17T04:11:23Z) - Video-Based Reconstruction of the Trajectories Performed by Skiers [14.572756832049285]
そこで本稿では,スポーツ選手が演奏中にトラバースした点列をビデオベースで再構成する手法を提案する。
我々のプロトタイプは、アスリートの動きを再現し、カメラの視点でそれを視覚化するためのディープラーニングベースのアルゴリズムのパイプラインで構成されています。
論文 参考訳(メタデータ) (2021-12-17T17:40:06Z) - Space-Time Crop & Attend: Improving Cross-modal Video Representation
Learning [88.71867887257274]
トリミングのような空間拡張はビデオでもうまく機能するが、以前の実装ではうまく機能するのに十分な規模でこれを行うことができなかった。
そこで本研究ではまず,このような拡張をより効率的にシミュレートする手法であるFeature Cropについて紹介する。
第2に,ナイーブ平均プーリングとは対照的に,変圧器に基づく注意性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-03-18T12:32:24Z) - Learning to Run with Potential-Based Reward Shaping and Demonstrations
from Video Data [70.540936204654]
「走ることを学ぶ」競技は、二本足のヒューマノイドボディを最高速度で模擬レースコースで走るように訓練することであった。
すべての提出者は、強化学習(RL)へのタブラララサアプローチを採り入れ、比較的速いが最適な実行動作は得られなかった。
本研究では,人間のランニング映像から得られるデータを用いて,ヒューマノイド学習エージェントの報酬を形成できることを示す。
論文 参考訳(メタデータ) (2020-12-16T09:46:58Z) - Do You See What I See? Coordinating Multiple Aerial Cameras for Robot
Cinematography [9.870369982132678]
ショットの多様性を最大化し、衝突を回避しつつ、ダイナミックな目標を記録できるリアルタイムマルチUAVコーディネートシステムを開発した。
我々の調整方式は計算コストが低く、平均1.17ミリ秒で10秒の時間帯で3UAVのチームを計画できることが示される。
論文 参考訳(メタデータ) (2020-11-10T22:43:25Z) - RSPNet: Relative Speed Perception for Unsupervised Video Representation
Learning [100.76672109782815]
本研究では,未ラベル映像のみから動作特徴と外観特徴の両方を学習するための教師なし映像表現学習について検討する。
動作と外観の両方をうまくモデル化するために、適切な自己指導タスクを構築することは困難である。
再生速度を知覚し、2つのビデオクリップ間の相対速度をラベルとして利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-27T16:42:50Z) - Motion Capture from Internet Videos [47.943209721329474]
画像に基づく人間のポーズ推定の最近の進歩により、単一のRGBビデオから3Dの人間の動きを捉えることができる。
マルチビュービデオは一般的ではないが、特定のアクションを行う有名人のビデオはインターネット上で多く見られる。
本稿では,新しい最適化フレームワークを提案し,複数のビデオからより正確かつ詳細な動きを復元する能力を実験的に実証する。
論文 参考訳(メタデータ) (2020-08-18T13:48:37Z) - AIM 2019 Challenge on Video Temporal Super-Resolution: Methods and
Results [129.15554076593762]
本稿では,ビデオ時空間超解像(フレーム)におけるAIMの最初の課題についてレビューする。
低フレームレート(15fps)のビデオシーケンスから、チャレンジ参加者はより高いフレームレート(60fps)のビデオシーケンスを提出するよう求められる。
ハンドヘルドカメラで撮影した多様なビデオから得られたREDS VTSRデータセットをトレーニングおよび評価目的で使用した。
論文 参考訳(メタデータ) (2020-05-04T01:51:23Z) - Multimodal and multiview distillation for real-time player detection on
a football field [31.355119048749618]
本研究では,単一の狭角熱カメラによって支援された,ユニークな安価で広角の魚眼カメラから選手を検知するシステムを開発した。
魚眼カメラで撮影した全フィールド上の選手を検出するのに,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-04-16T09:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。