論文の概要: SpikePingpong: High-Frequency Spike Vision-based Robot Learning for Precise Striking in Table Tennis Game
- arxiv url: http://arxiv.org/abs/2506.06690v1
- Date: Sat, 07 Jun 2025 07:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.43273
- Title: SpikePingpong: High-Frequency Spike Vision-based Robot Learning for Precise Striking in Table Tennis Game
- Title(参考訳): SpikePingpong: テーブルテニスゲームにおける高精度ストライクのための高周波スパイクビジョンに基づくロボット学習
- Authors: Hao Wang, Chengkai Hou, Xianglong Li, Yankai Fu, Chenxuan Li, Ning Chen, Gaole Dai, Jiaming Liu, Tiejun Huang, Shanghang Zhang,
- Abstract要約: SpikePingpongは、スパイクベースのビジョンと模倣学習を統合した新しいシステムだ。
スパイクカメラベースのモジュールであるSONICは、ボールラケット接触予測においてミリレベルの精度を達成する。
IMPACTは戦略的計画モジュールであり、ターゲットとするテーブル領域への正確なボール配置を可能にする。
- 参考スコア(独自算出の注目度): 37.80144996427038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to control high-speed objects in the real world remains a challenging frontier in robotics. Table tennis serves as an ideal testbed for this problem, demanding both rapid interception of fast-moving balls and precise adjustment of their trajectories. This task presents two fundamental challenges: it requires a high-precision vision system capable of accurately predicting ball trajectories, and it necessitates intelligent strategic planning to ensure precise ball placement to target regions. The dynamic nature of table tennis, coupled with its real-time response requirements, makes it particularly well-suited for advancing robotic control capabilities in fast-paced, precision-critical domains. In this paper, we present SpikePingpong, a novel system that integrates spike-based vision with imitation learning for high-precision robotic table tennis. Our approach introduces two key attempts that directly address the aforementioned challenges: SONIC, a spike camera-based module that achieves millimeter-level precision in ball-racket contact prediction by compensating for real-world uncertainties such as air resistance and friction; and IMPACT, a strategic planning module that enables accurate ball placement to targeted table regions. The system harnesses a 20 kHz spike camera for high-temporal resolution ball tracking, combined with efficient neural network models for real-time trajectory correction and stroke planning. Experimental results demonstrate that SpikePingpong achieves a remarkable 91% success rate for 30 cm accuracy target area and 71% in the more challenging 20 cm accuracy task, surpassing previous state-of-the-art approaches by 38% and 37% respectively. These significant performance improvements enable the robust implementation of sophisticated tactical gameplay strategies, providing a new research perspective for robotic control in high-speed dynamic tasks.
- Abstract(参考訳): 現実世界で高速物体を制御することを学ぶことは、ロボティクスにおける挑戦的なフロンティアである。
卓球はこの問題に対する理想的なテストベッドとして機能し、素早く動く球を素早くインターセプトし、軌道を正確に調整する必要がある。
この課題は、球軌道を正確に予測できる高精度な視覚システムを必要とし、ターゲット領域に正確な球配置を確保するためには、インテリジェントな戦略的計画が必要である、という2つの基本的な課題を提示する。
卓球のダイナミックな性質は、リアルタイムの応答要求と相まって、高速で高精度な領域におけるロボット制御能力の進歩に特に適している。
本稿では,スパイクベースビジョンと模倣学習を統合したロボット卓球のための新しいシステムであるSpikePingpongを紹介する。
上記の課題に対処するための2つの重要な試みを紹介する。SONICは、空気抵抗や摩擦などの現実の不確かさを補うことで、ボールラケット接触予測のミリレベル精度を達成するスパイクカメラベースのモジュールであり、IMPACTは、ターゲットのテーブル領域への正確なボール配置を可能にする戦略的計画モジュールである。
このシステムは、20kHzのスパイクカメラを高時間分解能球追跡に利用し、リアルタイムの軌道修正とストローク計画のための効率的なニューラルネットワークモデルと組み合わせている。
実験の結果,SpikePingpongは30cm精度目標領域で91%,20cm精度タスクで71%を達成し,従来の最先端アプローチを38%,37%に上回った。
これらの大幅な性能向上により、高度な戦術ゲームプレイ戦略の堅牢な実装が可能になり、高速な動的タスクにおけるロボット制御の新しい研究視点を提供する。
関連論文リスト
- Taccel: Scaling Up Vision-based Tactile Robotics via High-performance GPU Simulation [50.34179054785646]
ロボット,触覚センサ,物体を精度と前例のない速度でモデル化するために,IPCとABDを統合した高性能なシミュレーションプラットフォームであるTaccelを提案する。
Taccelは正確な物理シミュレーションとリアルな触覚信号を提供し、ユーザフレンドリーなAPIを通じて柔軟なロボットセンサー構成をサポートする。
これらの能力は、触覚ロボットの研究と開発を拡大するための強力なツールとして、Taccelを位置づけている。
論文 参考訳(メタデータ) (2025-04-17T12:57:11Z) - RP1M: A Large-Scale Motion Dataset for Piano Playing with Bi-Manual Dexterous Robot Hands [57.64308229980045]
ロボットピアノ100万のデータセットには,100万回以上の軌跡の動作データをバイマニュアルで演奏するロボットピアノが組み込まれている。
指の配置を最適な移動問題として定式化し、大量の未収録曲の自動アノテーションを可能にする。
既存の模倣学習手法のベンチマークでは、RP1Mを活用することにより、最先端のロボットピアノ演奏性能に達することが示されている。
論文 参考訳(メタデータ) (2024-08-20T17:56:52Z) - Robotic Table Tennis: A Case Study into a High Speed Learning System [30.30242337602385]
本研究では,人間と数百の卓球アライグが可能な実世界のロボット学習システムを提案する。
本システムは,高度に最適化された知覚サブシステム,高速低遅延ロボットコントローラ,現実世界の損傷を防ぐシミュレーションパラダイムを組み込んだ。
論文 参考訳(メタデータ) (2023-09-06T18:56:20Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Hierarchical Reinforcement Learning for Precise Soccer Shooting Skills
using a Quadrupedal Robot [76.04391023228081]
本研究では,四足歩行ロボットが実世界において,強化学習を用いて精度の高い射撃技術を実現できるという課題に対処する。
本研究では, 深層強化学習を活用して頑健な動作制御政策を訓練する階層的枠組みを提案する。
提案するフレームワークをA1四足歩行ロボットに展開し、実世界のランダムなターゲットに向けて正確にボールを発射できるようにする。
論文 参考訳(メタデータ) (2022-08-01T22:34:51Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Learning to Play Table Tennis From Scratch using Muscular Robots [34.34824536814943]
この研究は、(a)人為的ロボットアームを用いた安全クリティカルな動的タスクを初めて学習し、(b)PAM駆動システムで精度の高い要求問題を学び、(c)本物のボールなしで卓球をするようにロボットを訓練する。
ビデオとデータセットは muscleTT.embodied.ml で入手できる。
論文 参考訳(メタデータ) (2020-06-10T16:43:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。