論文の概要: An Event-Based Perception Pipeline for a Table Tennis Robot
- arxiv url: http://arxiv.org/abs/2502.00749v1
- Date: Sun, 02 Feb 2025 10:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:56:55.094204
- Title: An Event-Based Perception Pipeline for a Table Tennis Robot
- Title(参考訳): テーブルテニスロボットのためのイベントベース知覚パイプライン
- Authors: Andreas Ziegler, Thomas Gossard, Arren Glover, Andreas Zell,
- Abstract要約: 本稿では,イベントベースカメラのみを用いた卓球ロボットのための,初めてのリアルタイム認識パイプラインを提案する。
フレームベースのパイプラインと比較して、イベントベースの知覚パイプラインは更新率が高く、桁違いに高いことを示す。
- 参考スコア(独自算出の注目度): 12.101426862186072
- License:
- Abstract: Table tennis robots gained traction over the last years and have become a popular research challenge for control and perception algorithms. Fast and accurate ball detection is crucial for enabling a robotic arm to rally the ball back successfully. So far, most table tennis robots use conventional, frame-based cameras for the perception pipeline. However, frame-based cameras suffer from motion blur if the frame rate is not high enough for fast-moving objects. Event-based cameras, on the other hand, do not have this drawback since pixels report changes in intensity asynchronously and independently, leading to an event stream with a temporal resolution on the order of us. To the best of our knowledge, we present the first real-time perception pipeline for a table tennis robot that uses only event-based cameras. We show that compared to a frame-based pipeline, event-based perception pipelines have an update rate which is an order of magnitude higher. This is beneficial for the estimation and prediction of the ball's position, velocity, and spin, resulting in lower mean errors and uncertainties. These improvements are an advantage for the robot control, which has to be fast, given the short time a table tennis ball is flying until the robot has to hit back.
- Abstract(参考訳): 卓球ロボットはここ数年で勢いを増し、制御と知覚アルゴリズムの研究課題として人気を博している。
高速かつ正確なボール検出は、ロボットアームが舞踏会を成功させるためには不可欠だ。
これまでのところ、ほとんどの卓球ロボットは、知覚パイプラインに従来のフレームベースのカメラを使用している。
しかし、高速移動物体にフレームレートが十分高くない場合、フレームベースのカメラは動きのぼかしに悩まされる。
一方、イベントベースのカメラは、画素が非同期かつ独立に強度の変化を報告し、時間分解能のあるイベントストリームをわれわれに与えているので、この欠点はない。
我々の知る限り、我々は、イベントベースのカメラのみを使用する卓球ロボットのための、初めてのリアルタイム認識パイプラインを提示する。
フレームベースのパイプラインと比較して、イベントベースの知覚パイプラインは更新率が高く、桁違いに高いことを示す。
これはボールの位置、速度、スピンの推定と予測に有用であり、平均誤差や不確実性が低下する。
これらの改善はロボット制御の利点であり、テーブルのテニスボールが飛んでからロボットが戻らなければいけないことを考えると、高速でなければならない。
関連論文リスト
- Investigating Event-Based Cameras for Video Frame Interpolation in Sports [59.755469098797406]
本稿では,スポーツスローモーションビデオを生成するためのイベントベースビデオフレーム補間(VFI)モデルについて検討する。
特に,スポーツ映像を撮影するためのRGBとイベントベースカメラを含むバイカメラ記録装置の設計と実装を行い,両カメラの時間的整列と空間的登録を行う。
実験により,市販のイベントベースVFIモデルであるTimeLensが,スポーツビデオのスローモーション映像を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2024-07-02T15:39:08Z) - Table tennis ball spin estimation with an event camera [11.735290341808064]
卓球では、高速とスピンの組み合わせは従来の低フレームレートカメラが不十分である。
本稿では,イベントカメラを用いたテーブルテニススピン推定法を提案する。
我々は、スピン等級平均誤差が10.7 pm 17.3$ rps、スピン軸平均誤差が32.9 pm 38.2deg$をリアルタイムで空飛ぶボールに対して達成する。
論文 参考訳(メタデータ) (2024-04-15T15:36:38Z) - A multi-modal table tennis robot system [12.590158763556186]
本稿では,高精度な視覚検出と高速なロボット反応を備えたテーブルテニスロボットシステムを提案する。
これまでの研究に基づいて、我々のシステムはKUKAロボットアームと6 DOF、フレームベースのカメラ4台とイベントベースのカメラ2台を搭載している。
論文 参考訳(メタデータ) (2023-10-29T16:35:29Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - EvConv: Fast CNN Inference on Event Camera Inputs For High-Speed Robot
Perception [1.3869227429939426]
イベントカメラは、高時間分解能と広いダイナミックレンジで視覚情報をキャプチャする。
イベントカメラストリーム上の現在の畳み込みニューラルネットワーク推論は、イベントカメラが動作している高速で、現在リアルタイムの推論を実行できない。
本稿では,イベントカメラからの入力に対して,CNN上で高速な推論を可能にする新しいアプローチであるEvConvを提案する。
論文 参考訳(メタデータ) (2023-03-08T15:47:13Z) - Fast Trajectory End-Point Prediction with Event Cameras for Reactive
Robot Control [4.110120522045467]
本稿では,これらの問題を克服するために,イベントカメラの低レイテンシ,動作駆動サンプリング,データ圧縮特性を活用することを提案する。
ユースケースとして、私たちはパンダのロボットアームを使って、テーブルの上で跳ねるボールをインターセプトします。
シミュレーションでネットワークをトレーニングし、データセットの取得を高速化し、実際の軌道上でモデルを微調整します。
論文 参考訳(メタデータ) (2023-02-27T14:14:52Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - TimeReplayer: Unlocking the Potential of Event Cameras for Video
Interpolation [78.99283105497489]
イベントカメラは、任意に複雑な動きのあるビデオを可能にする新しいデバイスである。
本稿では,コモディティカメラが捉えた映像とイベントとを補間するTimeReplayerアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-25T18:57:42Z) - Event Camera Based Real-Time Detection and Tracking of Indoor Ground
Robots [2.471139321417215]
本稿では,イベントカメラを用いて複数の移動ロボットをリアルタイムに検出・追跡する手法を提案する。
ノイズのあるアプリケーションの密度に基づく空間クラスタリング(DBSCAN)を用いて、ロボットと1本のk次元(k-d)木を検知し、屋内アリーナで動きながら正確に追跡する。
論文 参考訳(メタデータ) (2021-02-23T19:50:17Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。