論文の概要: Learning from the Pros: Extracting Professional Goalkeeper Technique
from Broadcast Footage
- arxiv url: http://arxiv.org/abs/2202.12259v1
- Date: Tue, 22 Feb 2022 18:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 10:13:05.961474
- Title: Learning from the Pros: Extracting Professional Goalkeeper Technique
from Broadcast Footage
- Title(参考訳): prosから学ぶ:放送映像からプロのゴールキーパーテクニックを抽出する
- Authors: Matthew Wear, Ryan Beal, Tim Matthews, Tim Norman and Sarvapali
Ramchurn
- Abstract要約: 放送映像から抽出した3Dボディポーズデータを用いて教師なし機械学習モデルを訓練し、プロのゴールキーパー技術を学習する。
そして、"予測保存"モデルを開発し、そこから最適なゴールキーパーテクニックを異なるマッチングコンテキストで識別する。
- 参考スコア(独自算出の注目度): 3.4386226615580107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As an amateur goalkeeper playing grassroots soccer, who better to learn from
than top professional goalkeepers? In this paper, we harness computer vision
and machine learning models to appraise the save technique of professionals in
a way those at lower levels can learn from. We train an unsupervised machine
learning model using 3D body pose data extracted from broadcast footage to
learn professional goalkeeper technique. Then, an "expected saves" model is
developed, from which we can identify the optimal goalkeeper technique in
different match contexts.
- Abstract(参考訳): 草の根サッカーをするアマチュアのゴールキーパーとして、トップのプロのゴールキーパーよりも学ぶべき人はいるか?
本稿では,コンピュータビジョンと機械学習モデルを用いて,低レベルの者が学ぶことのできる方法で,専門家のセーブテクニックを評価する。
放送映像から抽出した3次元ポーズデータを用いて教師なし機械学習モデルを訓練し,プロのゴールキーパー技術を学ぶ。
次に、マッチコンテキストの異なる最適なゴールキーパーテクニックを識別できる「期待保存」モデルを開発した。
関連論文リスト
- ExpertAF: Expert Actionable Feedback from Video [81.46431188306397]
ビデオのスキル評価の現在の方法は、スコアのみを提供し、デモを比較することである。
本研究では,身体活動を行う人の映像から行動可能なフィードバックを生成する新しい手法を提案する。
提案手法は,マルチモーダルな入力の組み合わせを解析し,フルスペクトルで実用的なコーチングを出力することができる。
論文 参考訳(メタデータ) (2024-08-01T16:13:07Z) - VARS: Video Assistant Referee System for Automated Soccer Decision
Making from Multiple Views [70.70161449930127]
Video Assistant Refereeは協会サッカーに革命をもたらし、審判がピッチ上のインシデントをレビューできるようにする。
しかし、多くの国での審判の欠如とVARインフラの高コストのため、プロリーグのみがその恩恵を受けることができる。
サッカーの意思決定を自動化するビデオアシスタント参照システム(VARS)を提案する。
論文 参考訳(メタデータ) (2023-04-10T14:33:05Z) - What drives a goalkeepers' decisions? [0.0]
ショットストッピングにおいて,どの動きが最も効果的かを予測するモデルを開発した。
ゴールキーパーの実際の行動と比較する。
本研究では,実戦におけるゴールキーパーの行動分析ツールを開発した。
論文 参考訳(メタデータ) (2022-11-01T10:37:44Z) - Towards unconstrained joint hand-object reconstruction from RGB videos [81.97694449736414]
ハンドオブジェクト操作の再構築は、ロボット工学と人間のデモから学ぶ大きな可能性を秘めている。
まず,手動物体の相互作用をシームレスに処理できる学習不要な手動物体再構成手法を提案する。
論文 参考訳(メタデータ) (2021-08-16T12:26:34Z) - Camera Calibration and Player Localization in SoccerNet-v2 and
Investigation of their Representations for Action Spotting [61.92132798351982]
大規模サッカーネットデータセット上で,最近のニューラルネットワークアーキテクチャにおいて,強力な商用キャリブレーションツールを蒸留する。
そこで我々は,キャリブレーション結果とプレイヤーのローカライゼーションの3つの方法を提案する。
soccernet-v2のアクションスポッティングタスクに、現在のベストアーキテクチャ内でこれらの表現を利用する。
論文 参考訳(メタデータ) (2021-04-19T14:21:05Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Learning to Play Soccer From Scratch: Sample-Efficient Emergent
Coordination through Curriculum-Learning and Competition [1.675857332621569]
本研究では,2v2サッカーに適用した複雑なマルチエージェント動作を効率的に学習する手法を提案する。
この問題はマルコフゲームとして定式化され、深層強化学習を用いて解決される。
この結果から, サッカーの高品質なプレーは40M未満のインタラクションで実現できることが示された。
論文 参考訳(メタデータ) (2021-03-09T01:57:16Z) - Evaluating Soccer Player: from Live Camera to Deep Reinforcement
Learning [0.0]
オープンソースのプレイヤー追跡モデルと、Deep Reinforcement Learningのみに基づいてこれらのプレイヤーを評価する新しいアプローチの2つの部分のソリューションを紹介します。
私達の追跡モデルは私達がまた解放するデータセットの監視された方法で訓練され、私達の評価モデルは仮想サッカーゲームのシミュレーションだけに頼ります。
新たなアプローチであるExpected Discounted Goal(EDG)は、チームが特定の状態から獲得または達成できる目標の数を表します。
論文 参考訳(メタデータ) (2021-01-13T23:26:17Z) - Eye Movement Feature Classification for Soccer Goalkeeper Expertise
Identification in Virtual Reality [8.356765961526955]
本研究は,視線行動に基づくゴールキーパーの専門知識を客観的に分類するための有望な結果を示す。
スポーツ選手の知覚能力を高めるためのトレーニングシステムの設計を知らせる貴重な洞察を提供する。
論文 参考訳(メタデータ) (2020-09-23T12:18:41Z) - Self-Supervised Human Depth Estimation from Monocular Videos [99.39414134919117]
人間の深度を推定する従来の方法は、しばしば地上の真実の深度データを用いた教師あり訓練を必要とする。
本稿では,YouTubeビデオの奥行きを知ることなく,自己指導型手法を提案する。
実験により,本手法はより一般化され,野生のデータに対してより優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-07T09:45:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。