論文の概要: Egocentric Event-Based Vision for Ping Pong Ball Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2506.07860v1
- Date: Mon, 09 Jun 2025 15:22:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.023592
- Title: Egocentric Event-Based Vision for Ping Pong Ball Trajectory Prediction
- Title(参考訳): Egocentric Event-based Vision for Ping Pong Ball Trajectory Prediction
- Authors: Ivan Alberico, Marco Cannici, Giovanni Cioffi, Davide Scaramuzza,
- Abstract要約: 本稿では,イベントカメラを用いたテーブルテニスにおけるリアルタイムなエゴセントリックな軌道予測システムを提案する。
そこで我々は,メタプロジェクトAriaメガネのセンサデータと同期した球の3次元地下軌道を含むピンポンゲームシーケンスのデータセットを収集した。
我々の検出パイプラインは、計算と知覚を含む4.5msの最悪ケースの総レイテンシを持つ。
- 参考スコア(独自算出の注目度): 17.147140984254655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a real-time egocentric trajectory prediction system for table tennis using event cameras. Unlike standard cameras, which suffer from high latency and motion blur at fast ball speeds, event cameras provide higher temporal resolution, allowing more frequent state updates, greater robustness to outliers, and accurate trajectory predictions using just a short time window after the opponent's impact. We collect a dataset of ping-pong game sequences, including 3D ground-truth trajectories of the ball, synchronized with sensor data from the Meta Project Aria glasses and event streams. Our system leverages foveated vision, using eye-gaze data from the glasses to process only events in the viewer's fovea. This biologically inspired approach improves ball detection performance and significantly reduces computational latency, as it efficiently allocates resources to the most perceptually relevant regions, achieving a reduction factor of 10.81 on the collected trajectories. Our detection pipeline has a worst-case total latency of 4.5 ms, including computation and perception - significantly lower than a frame-based 30 FPS system, which, in the worst case, takes 66 ms solely for perception. Finally, we fit a trajectory prediction model to the estimated states of the ball, enabling 3D trajectory forecasting in the future. To the best of our knowledge, this is the first approach to predict table tennis trajectories from an egocentric perspective using event cameras.
- Abstract(参考訳): 本稿では,イベントカメラを用いた卓球におけるリアルタイムな自己中心軌道予測システムを提案する。
高速球速で高遅延と動きのぼかしに悩まされる標準カメラとは異なり、イベントカメラは時間分解能が高く、より頻繁な状態更新を可能にし、アウトレーヤへの堅牢性を高め、相手の衝撃の後に短い時間窓で正確な軌道予測を行う。
球の3次元地下軌道を含むピンポンゲームシーケンスのデータセットを収集し,Meta Project Ariaメガネとイベントストリームのセンサデータと同期する。
本システムでは、眼鏡からの視線データを用いて、視聴者の眼球内イベントのみを処理する。
この生物学的にインスパイアされたアプローチは、ボールの検出性能を改善し、最も知覚に関係のある領域に効率的にリソースを割り当て、収集された軌道上で10.81の削減係数を達成するため、計算遅延を著しく低減する。
私たちの検出パイプラインは、計算と知覚を含む4.5msで最悪のケースで、フレームベースの30FPSシステムよりも大幅に低い。
最後に,ボールの推定状態に軌道予測モデルを適用し,将来3次元軌道予測を可能にする。
我々の知る限りでは、これはイベントカメラを用いて自我中心の視点からテーブルテニスの軌跡を予測するための最初のアプローチである。
関連論文リスト
- TT3D: Table Tennis 3D Reconstruction [11.84899291358663]
本稿では,オンライン卓球記録から正確な3次元球軌道を再構築するための新しい手法を提案する。
本手法は, ボールの飛来軌道の再投射誤差を最小限に抑えるバウンス状態を特定するために, ボールの運動の基盤となる物理を利用する。
我々のアプローチの重要な利点は、人間のポーズ推定やラケット追跡に頼ることなく、ボールスピンを推論できることである。
論文 参考訳(メタデータ) (2025-04-14T09:37:47Z) - An Event-Based Perception Pipeline for a Table Tennis Robot [12.101426862186072]
本稿では,イベントベースカメラのみを用いた卓球ロボットのための,初めてのリアルタイム認識パイプラインを提案する。
フレームベースのパイプラインと比較して、イベントベースの知覚パイプラインは更新率が高く、桁違いに高いことを示す。
論文 参考訳(メタデータ) (2025-02-02T10:56:37Z) - Event-based Structure-from-Orbit [23.97673114572094]
ロボット工学や視覚に基づくナビゲーションの応用には、静的カメラの前で円形または回転する物体の3次元認識が必要である。
静的なイベントカメラから観測された高速回転物体の3次元構造を再構成するイベントベース構造(eSf)を提案する。
論文 参考訳(メタデータ) (2024-05-10T03:02:03Z) - Table tennis ball spin estimation with an event camera [11.735290341808064]
卓球では、高速とスピンの組み合わせは従来の低フレームレートカメラが不十分である。
本稿では,イベントカメラを用いたテーブルテニススピン推定法を提案する。
我々は、スピン等級平均誤差が10.7 pm 17.3$ rps、スピン軸平均誤差が32.9 pm 38.2deg$をリアルタイムで空飛ぶボールに対して達成する。
論文 参考訳(メタデータ) (2024-04-15T15:36:38Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Fast Trajectory End-Point Prediction with Event Cameras for Reactive
Robot Control [4.110120522045467]
本稿では,これらの問題を克服するために,イベントカメラの低レイテンシ,動作駆動サンプリング,データ圧縮特性を活用することを提案する。
ユースケースとして、私たちはパンダのロボットアームを使って、テーブルの上で跳ねるボールをインターセプトします。
シミュレーションでネットワークをトレーニングし、データセットの取得を高速化し、実際の軌道上でモデルを微調整します。
論文 参考訳(メタデータ) (2023-02-27T14:14:52Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。