論文の概要: Eye Movement Feature Classification for Soccer Goalkeeper Expertise
Identification in Virtual Reality
- arxiv url: http://arxiv.org/abs/2009.11676v2
- Date: Wed, 6 Jan 2021 17:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 15:07:28.233635
- Title: Eye Movement Feature Classification for Soccer Goalkeeper Expertise
Identification in Virtual Reality
- Title(参考訳): サッカーゴールキーパーによるバーチャルリアリティにおける視線運動の特徴分類
- Authors: Benedikt Hosp, Florian Schultz, Oliver H\"oner, Enkelejda Kasneci
- Abstract要約: 本研究は,視線行動に基づくゴールキーパーの専門知識を客観的に分類するための有望な結果を示す。
スポーツ選手の知覚能力を高めるためのトレーニングシステムの設計を知らせる貴重な洞察を提供する。
- 参考スコア(独自算出の注目度): 8.356765961526955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The latest research in expertise assessment of soccer players has affirmed
the importance of perceptual skills (especially for decision making) by
focusing either on high experimental control or on a realistic presentation. To
assess the perceptual skills of athletes in an optimized manner, we captured
omnidirectional in-field scenes and showed these to 12 expert, 10 intermediate
and 13 novice soccer goalkeepers on virtual reality glasses. All scenes were
shown from the same natural goalkeeper perspective and ended after the return
pass to the goalkeeper. Based on their gaze behavior we classified their
expertise with common machine learning techniques. This pilot study shows
promising results for objective classification of goalkeepers expertise based
on their gaze behaviour and provided valuable insight to inform the design of
training systems to enhance perceptual skills of athletes.
- Abstract(参考訳): サッカー選手の専門知識評価に関する最新の研究は、高い実験的制御や現実的なプレゼンテーションに焦点を当てることで、知覚的スキル(特に意思決定)の重要性を裏付けている。
スポーツ選手の知覚スキルを最適化して評価するために,全方向のフィールドシーンを捉え,バーチャルリアリティグラス上で12名,中間10名,初級13名のサッカーゴールキーパーに提示した。
すべてのシーンは、同じ自然のゴールキーパーの視点から表示され、ゴールキーパーへのリターンパス後に終了します。
彼らの視線行動に基づいて、彼らの専門知識を一般的な機械学習技術に分類した。
本研究は,視線行動に基づくゴールキーパーの客観的分類に有望な結果を示し,選手の知覚能力を高めるためのトレーニングシステムの設計に有用な洞察を与える。
関連論文リスト
- Facial Emotion Recognition in VR Games [2.5382095320488665]
我々は、畳み込みニューラルネットワーク(CNN)を用いて、目とまぶたがカバーされているフルフェイス画像の感情を予測するモデルを訓練する。
これらの画像のモデルは、怒り、幸福、嫌悪、恐怖、不公平、悲しみ、驚きの7つの異なる感情を正確に認識することができる。
ゲームプレイ中にプレイヤーがどのような感情を経験しているかを理解するために,実験から収集したデータを分析した。
論文 参考訳(メタデータ) (2023-12-12T01:40:14Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - What do we learn from a large-scale study of pre-trained visual
representations in sim and real environments? [49.846274625731795]
本研究では、実世界のタスクを実行する下流政策のトレーニングに、事前訓練された視覚表現(PVR)の使用に関する大規模な実証的研究を行う。
我々の研究は、5つの異なるPVR、二つの異なるポリシー学習パラダイム(シミュレーションと強化学習)、そして5つの異なる操作と屋内ナビゲーションタスクのための3つの異なるロボットにまたがる。
論文 参考訳(メタデータ) (2023-10-03T17:27:10Z) - Hang-Time HAR: A Benchmark Dataset for Basketball Activity Recognition
using Wrist-worn Inertial Sensors [61.231127423359744]
本稿では,手首に装着したセンサから身体活動認識手法を評価するためのベンチマークデータセットを提案する。
データセットは、米国とドイツの2つのチームで記録され、計24人のプレーヤーが手首に慣性センサーを装着した。
論文 参考訳(メタデータ) (2023-05-22T15:25:29Z) - What drives a goalkeepers' decisions? [0.0]
ショットストッピングにおいて,どの動きが最も効果的かを予測するモデルを開発した。
ゴールキーパーの実際の行動と比較する。
本研究では,実戦におけるゴールキーパーの行動分析ツールを開発した。
論文 参考訳(メタデータ) (2022-11-01T10:37:44Z) - Is it worth the effort? Understanding and contextualizing physical
metrics in soccer [1.2205797997133396]
このフレームワークは、サッカーの物理的側面と技術的戦術的側面の関連について深い洞察を与える。
トップダウンアプローチのおかげで、物理パフォーマンスとバリュー生成を関連付けることができます。
論文 参考訳(メタデータ) (2022-04-05T16:14:40Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - Masked Visual Pre-training for Motor Control [118.18189211080225]
実世界の画像からの自己教師付き視覚前訓練は、画素から運動制御タスクを学習するのに有効である。
私たちはビジュアルエンコーダを凍結し、強化学習でニューラルネットワークコントローラをトレーニングします。
これは、モーター制御のために現実の画像を大規模に活用した初めての自己教師型モデルである。
論文 参考訳(メタデータ) (2022-03-11T18:58:10Z) - Learning from the Pros: Extracting Professional Goalkeeper Technique
from Broadcast Footage [3.4386226615580107]
放送映像から抽出した3Dボディポーズデータを用いて教師なし機械学習モデルを訓練し、プロのゴールキーパー技術を学習する。
そして、"予測保存"モデルを開発し、そこから最適なゴールキーパーテクニックを異なるマッチングコンテキストで識別する。
論文 参考訳(メタデータ) (2022-02-22T18:17:30Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - "Why Would I Trust Your Numbers?" On the Explainability of Expected
Values in Soccer [5.825190876052149]
本稿では,ショットの期待値を推定する,説明可能な一般化付加モデルを提案する。
我々は、練習者が慣れ親しんだピッチ上の指定されたゾーンにショットをファジィに割り当てることで、ショットの位置を表現している。
実験により,我々のモデルは既存のモデルと同じくらい正確であり,サッカー実践者には説明し易いことがわかった。
論文 参考訳(メタデータ) (2021-05-27T10:05:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。