論文の概要: EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks
- arxiv url: http://arxiv.org/abs/2304.07200v1
- Date: Fri, 14 Apr 2023 15:23:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:09:09.082858
- Title: EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks
- Title(参考訳): EV-Catcher:低レイテンシイベントベースニューラルネットワークを用いた高速物体キャッチ
- Authors: Ziyun Wang, Fernando Cladera Ojeda, Anthony Bisulco, Daewon Lee,
Camillo J. Taylor, Kostas Daniilidis, M. Ani Hsieh, Daniel D. Lee, and Volkan
Isler
- Abstract要約: イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
- 参考スコア(独自算出の注目度): 107.62975594230687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based sensors have recently drawn increasing interest in robotic
perception due to their lower latency, higher dynamic range, and lower
bandwidth requirements compared to standard CMOS-based imagers. These
properties make them ideal tools for real-time perception tasks in highly
dynamic environments. In this work, we demonstrate an application where event
cameras excel: accurately estimating the impact location of fast-moving
objects. We introduce a lightweight event representation called Binary Event
History Image (BEHI) to encode event data at low latency, as well as a
learning-based approach that allows real-time inference of a confidence-enabled
control signal to the robot. To validate our approach, we present an
experimental catching system in which we catch fast-flying ping-pong balls. We
show that the system is capable of achieving a success rate of 81% in catching
balls targeted at different locations, with a velocity of up to 13 m/s even on
compute-constrained embedded platforms such as the Nvidia Jetson NX.
- Abstract(参考訳): イベントベースのセンサーは最近、標準のcmosベースのイメージ装置に比べてレイテンシが低く、ダイナミックレンジが高く、帯域幅が小さいため、ロボットの知覚への関心が高まっている。
これらの特性は、高ダイナミック環境におけるリアルタイム認識タスクに理想的なツールである。
本研究では,イベントカメラが優れ,高速移動物体の衝突位置を正確に推定するアプリケーションを実演する。
我々は、低レイテンシでイベントデータをエンコードするbinary event history image(behi)と呼ばれる軽量なイベント表現を導入するとともに、ロボットに信頼可能な制御信号のリアルタイム推論を可能にする学習ベースのアプローチを導入する。
提案手法を検証するために,高速飛行するピンポン球を捕獲する実験捕球システムを提案する。
Nvidia Jetson NXのような計算制約付き組込みプラットフォーム上でも最大13m/sの速度で、異なる場所をターゲットとしたボールをキャッチする際の81%の成功率を達成することができることを示す。
関連論文リスト
- EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Fast Trajectory End-Point Prediction with Event Cameras for Reactive
Robot Control [4.110120522045467]
本稿では,これらの問題を克服するために,イベントカメラの低レイテンシ,動作駆動サンプリング,データ圧縮特性を活用することを提案する。
ユースケースとして、私たちはパンダのロボットアームを使って、テーブルの上で跳ねるボールをインターセプトします。
シミュレーションでネットワークをトレーニングし、データセットの取得を高速化し、実際の軌道上でモデルを微調整します。
論文 参考訳(メタデータ) (2023-02-27T14:14:52Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - A Hybrid Neuromorphic Object Tracking and Classification Framework for
Real-time Systems [5.959466944163293]
本稿では,イベントベースカメラを用いた物体追跡と分類のためのリアルタイムハイブリッドニューロモルフィックフレームワークを提案する。
イベント・バイ・イベント処理の従来のアプローチとは異なり、この作業では混合フレームとイベント・アプローチを使用して高性能な省エネを実現している。
論文 参考訳(メタデータ) (2020-07-21T07:11:27Z) - Streaming Object Detection for 3-D Point Clouds [29.465873948076766]
LiDARは、多くの既存の知覚システムに通知する顕著な感覚モダリティを提供する。
ポイントクラウドデータに基づく知覚システムのレイテンシは、完全なローテーションスキャンの時間量によって支配される。
我々は、LiDARデータをそのネイティブストリーミング定式化で操作することで、自動運転オブジェクト検出にいくつかの利点があることを示す。
論文 参考訳(メタデータ) (2020-05-04T21:55:15Z) - Event-based Robotic Grasping Detection with Neuromorphic Vision Sensor
and Event-Stream Dataset [8.030163836902299]
ニューロモルフィック・ビジョンは、小さくて若い研究コミュニティである。従来のフレームベースのコンピュータビジョンと比較すると、ニューロモルフィック・ビジョンは小さくて若い研究コミュニティである。
91個のオブジェクトからなるイベントストリームデータセットという,ロボットによる把握データセットを構築した。
リードが高周波でブリンクするため、Event-Streamデータセットは1kHzの高周波でアノテートされる。
我々は、角度学習問題を回帰ではなく分類として考慮した、検出を把握するためのディープニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2020-04-28T16:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。