論文の概要: Table tennis ball spin estimation with an event camera
- arxiv url: http://arxiv.org/abs/2404.09870v1
- Date: Mon, 15 Apr 2024 15:36:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 21:47:37.213429
- Title: Table tennis ball spin estimation with an event camera
- Title(参考訳): イベントカメラによる卓球スピン推定
- Authors: Thomas Gossard, Julian Krismer, Andreas Ziegler, Jonas Tebbe, Andreas Zell,
- Abstract要約: 卓球では、高速とスピンの組み合わせは従来の低フレームレートカメラが不十分である。
本稿では,イベントカメラを用いたテーブルテニススピン推定法を提案する。
我々は、スピン等級平均誤差が10.7 pm 17.3$ rps、スピン軸平均誤差が32.9 pm 38.2deg$をリアルタイムで空飛ぶボールに対して達成する。
- 参考スコア(独自算出の注目度): 11.735290341808064
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Spin plays a pivotal role in ball-based sports. Estimating spin becomes a key skill due to its impact on the ball's trajectory and bouncing behavior. Spin cannot be observed directly, making it inherently challenging to estimate. In table tennis, the combination of high velocity and spin renders traditional low frame rate cameras inadequate for quickly and accurately observing the ball's logo to estimate the spin due to the motion blur. Event cameras do not suffer as much from motion blur, thanks to their high temporal resolution. Moreover, the sparse nature of the event stream solves communication bandwidth limitations many frame cameras face. To the best of our knowledge, we present the first method for table tennis spin estimation using an event camera. We use ordinal time surfaces to track the ball and then isolate the events generated by the logo on the ball. Optical flow is then estimated from the extracted events to infer the ball's spin. We achieved a spin magnitude mean error of $10.7 \pm 17.3$ rps and a spin axis mean error of $32.9 \pm 38.2\deg$ in real time for a flying ball.
- Abstract(参考訳): スピンはボールベーススポーツにおいて重要な役割を担っている。
スピンの推定は、ボールの軌跡やバウンス動作に影響を及ぼすため、重要なスキルとなる。
スピンを直接観察することはできず、本質的に見積もるのは困難である。
卓球では、高速とスピンの組み合わせは、ボールのロゴを素早く正確に観察するために従来の低フレームレートカメラを不十分にし、動きのぼけによってスピンを推定する。
イベントカメラは、時間分解能が高いため、動きのぼやけにあまり悩まされない。
さらに、イベントストリームのスパース性は、多くのフレームカメラが直面する通信帯域制限を解決する。
我々の知る限り、我々は、イベントカメラを用いた卓球スピン推定のための最初の方法を提案する。
私たちは、ボールを追跡するために順序時間面を使用し、ボールのロゴによって生成されたイベントを分離します。
その後、抽出されたイベントから光の流れを推定し、ボールのスピンを推測する。
スピン等級平均誤差は10.7 \pm 17.3$ rps、スピン軸平均誤差は32.9 \pm 38.2\deg$をフライングボールのリアルタイムに達成した。
関連論文リスト
- A multi-modal table tennis robot system [12.590158763556186]
本稿では,高精度な視覚検出と高速なロボット反応を備えたテーブルテニスロボットシステムを提案する。
これまでの研究に基づいて、我々のシステムはKUKAロボットアームと6 DOF、フレームベースのカメラ4台とイベントベースのカメラ2台を搭載している。
論文 参考訳(メタデータ) (2023-10-29T16:35:29Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Black-Box vs. Gray-Box: A Case Study on Learning Table Tennis Ball
Trajectory Prediction with Spin and Impacts [12.103456313315764]
本稿では,テーブル球の軌道フィルタリングと予測手法を提案する。
我々は,ボールの初期条件を推測するダイナミックスモデル,拡張カルマンフィルタ,ニューラルモデルのパラメータをデータを用いて学習する。
論文 参考訳(メタデータ) (2023-05-24T14:28:22Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - EvConv: Fast CNN Inference on Event Camera Inputs For High-Speed Robot
Perception [1.3869227429939426]
イベントカメラは、高時間分解能と広いダイナミックレンジで視覚情報をキャプチャする。
イベントカメラストリーム上の現在の畳み込みニューラルネットワーク推論は、イベントカメラが動作している高速で、現在リアルタイムの推論を実行できない。
本稿では,イベントカメラからの入力に対して,CNN上で高速な推論を可能にする新しいアプローチであるEvConvを提案する。
論文 参考訳(メタデータ) (2023-03-08T15:47:13Z) - SpinDOE: A ball spin estimation method for table tennis robot [15.28960454647216]
スピンは卓球において重要な役割を担い、ショットの軌道を読みやすくし、予測しにくくする。
既存の方法は、非常に高いフレームレートカメラを必要とするか、ボールのロゴを使うため信頼できないかのいずれかである。
本稿では,実装が容易で信頼性の高いスピン推定法を提案する。
論文 参考訳(メタデータ) (2023-03-07T13:24:40Z) - 3D Moments from Near-Duplicate Photos [67.15199743223332]
3D Momentsは、新しい計算写真効果だ。
1枚目から2枚目までのシーンの動きを円滑に補間するビデオを作成する。
本システムは,モーションパララックスとシーンダイナミックスを併用したフォトリアリスティックな時空ビデオを生成する。
論文 参考訳(メタデータ) (2022-05-12T17:56:18Z) - TimeReplayer: Unlocking the Potential of Event Cameras for Video
Interpolation [78.99283105497489]
イベントカメラは、任意に複雑な動きのあるビデオを可能にする新しいデバイスである。
本稿では,コモディティカメラが捉えた映像とイベントとを補間するTimeReplayerアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-25T18:57:42Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z) - Learning to Play Cup-and-Ball with Noisy Camera Observations [2.6931502677545947]
球技に対する学習モデルに基づく制御戦略を提案する。
Universal Robots UR5eのマニピュレータアームは、ケンダマのカップの1つでボールをキャッチすることを学ぶ。
論文 参考訳(メタデータ) (2020-07-19T02:22:36Z) - Event-Based Angular Velocity Regression with Spiking Networks [51.145071093099396]
スパイキングニューラルネットワーク(SNN)は、数値ではなく時間スパイクとして伝達される情報を処理する。
本稿では,イベントカメラから与えられた事象の時間回帰問題を初めて提案する。
角速度回帰を行うためにSNNをうまく訓練できることが示される。
論文 参考訳(メタデータ) (2020-03-05T17:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。