論文の概要: An X3D Neural Network Analysis for Runner's Performance Assessment in a
Wild Sporting Environment
- arxiv url: http://arxiv.org/abs/2307.12183v1
- Date: Sat, 22 Jul 2023 23:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 17:29:40.140955
- Title: An X3D Neural Network Analysis for Runner's Performance Assessment in a
Wild Sporting Environment
- Title(参考訳): 野生スポーツ環境におけるランナーの性能評価のためのX3Dニューラルネットワーク解析
- Authors: David Freire-Obreg\'on, Javier Lorenzo-Navarro, Oliverio J. Santana,
Daniel Hern\'andez-Sosa, Modesto Castrill\'on-Santana
- Abstract要約: 本稿では,拡張型3D(X3D)ニューラルネットワークのスポーツ環境における伝達学習解析について述べる。
本手法は,スポーツ選手の累積レース時間を推定するために,行動品質評価手法にヒントを得て,行動認識ネットワークを用いた。
X3Dは最先端の性能を達成し、以前の作業よりも精度を向上するために約7倍のメモリを必要とする。
- 参考スコア(独自算出の注目度): 1.4859458229776121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a transfer learning analysis on a sporting environment of the
expanded 3D (X3D) neural networks. Inspired by action quality assessment
methods in the literature, our method uses an action recognition network to
estimate athletes' cumulative race time (CRT) during an ultra-distance
competition. We evaluate the performance considering the X3D, a family of
action recognition networks that expand a small 2D image classification
architecture along multiple network axes, including space, time, width, and
depth. We demonstrate that the resulting neural network can provide remarkable
performance for short input footage, with a mean absolute error of 12 minutes
and a half when estimating the CRT for runners who have been active from 8 to
20 hours. Our most significant discovery is that X3D achieves state-of-the-art
performance while requiring almost seven times less memory to achieve better
precision than previous work.
- Abstract(参考訳): 本稿では,拡張型3D(X3D)ニューラルネットワークのスポーツ環境における伝達学習解析について述べる。
文献における行動品質評価法に触発された本手法は,超距離競技における競技者の累積レース時間(CRT)を推定するために,行動認識ネットワークを用いる。
我々は,空間,時間,幅,深さを含む複数のネットワーク軸に沿って,小さな2次元画像分類アーキテクチャを拡張する行動認識ネットワークであるX3Dの性能を評価する。
8時間から20時間の走者に対してCRTを推定した場合、平均的な絶対誤差が12分半の短い入力映像に対して、結果のニューラルネットワークが顕著な性能を提供することを示した。
最も重要な発見は、x3dが最先端のパフォーマンスを実現すると同時に、以前の作業よりも精度を高めるために、ほぼ7倍のメモリを必要とすることです。
関連論文リスト
- DELTA: Dense Efficient Long-range 3D Tracking for any video [82.26753323263009]
DELTAは3次元空間内のすべてのピクセルを効率よく追跡し,ビデオ全体の正確な動き推定を可能にする手法である。
提案手法では,低分解能追跡のためのグローバルアテンション機構と,高分解能予測を実現するためのトランスフォーマーベースアップサンプラーを併用する。
提案手法は,3次元空間における細粒度・長期動作追跡を必要とするアプリケーションに対して,ロバストなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-31T17:59:01Z) - FastOcc: Accelerating 3D Occupancy Prediction by Fusing the 2D
Bird's-Eye View and Perspective View [46.81548000021799]
自律運転において、3D占有率予測は、より包括的な3Dシーンの理解のために、ボクセル的なステータスとセマンティックラベルを出力する。
近年,ビュートランスフォーメーション技術,地味ラベル生成,精巧なネットワーク設計など,この課題のさまざまな側面を幅広く研究している。
FastOccと呼ばれる新しい手法が提案され、精度を維持しながらモデルを高速化する。
Occ3D-nuScenesベンチマークの実験は、FastOccが高速な推論速度を達成することを示した。
論文 参考訳(メタデータ) (2024-03-05T07:01:53Z) - EfficientNeRF: Efficient Neural Radiance Fields [63.76830521051605]
我々は,3次元シーンを表現し,新しい映像を合成する効率的なNeRF法として,EfficientNeRFを提案する。
本手法は, トレーニング時間の88%以上を短縮し, 200FPS以上のレンダリング速度を達成できるが, 競争精度は高い。
論文 参考訳(メタデータ) (2022-06-02T05:36:44Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - A Real-time Action Representation with Temporal Encoding and Deep
Compression [115.3739774920845]
動作表現のための時間畳み込み3Dネットワーク(T-C3D)と呼ばれる新しいリアルタイム畳み込みアーキテクチャを提案する。
T-C3Dは、高プロセス速度を得ながら、階層的な多粒度でビデオアクション表現を学習する。
提案手法は,5MB未満のストレージモデルを用いて,提案手法の精度5.4%,推論速度2倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-06-17T06:30:43Z) - 3D Human Pose Estimation using Spatio-Temporal Networks with Explicit
Occlusion Training [40.933783830017035]
近年の大きな進歩にもかかわらず、モノラルなタスクから3Dのポーズを推定することは依然として難しい課題である。
頑健な3次元ポーズ推定のための時間的ビデオネットワークを提案する。
本研究では,各フレームに2次元関節やキーポイントの予測,および3次元関節やキーポイントを推定するために,多段階の時間的畳み込みネットワーク(TCN)を適用した。
論文 参考訳(メタデータ) (2020-04-07T09:12:12Z) - Lightweight 3D Human Pose Estimation Network Training Using
Teacher-Student Learning [15.321557614896268]
MoVNectは軽量なディープニューラルネットワークで、単一のRGBカメラを使用して3D人間のポーズをキャプチャする。
本研究では,教師の学習方法に基づく知識蒸留を3次元ポーズ推定に適用する。
モバイルで動作する3Dアバターアプリケーションをリアルタイムに実装し,ネットワークが高精度かつ高速な推論時間を実現することを示す。
論文 参考訳(メタデータ) (2020-01-15T01:31:01Z) - Short-Term Temporal Convolutional Networks for Dynamic Hand Gesture
Recognition [23.054444026402738]
本稿では,3次元高密度畳み込みネットワーク(3D-DenseNets)と時間的畳み込みネットワーク(TCNs)の改善に基づくマルチモーダルジェスチャー認識手法を提案する。
空間分析では3D-DenseNetを用いて短期的特徴を効果的に学習する。
時間的分析では、TNを用いて時間的特徴を抽出し、改良されたSqueeze-and-Excitation Networks(SENet)を用いて各TNの層から時間的特徴の表現力を強化する。
論文 参考訳(メタデータ) (2019-12-31T23:30:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。