論文の概要: Exploiting Event Cameras for Spatio-Temporal Prediction of Fast-Changing
Trajectories
- arxiv url: http://arxiv.org/abs/2001.01248v2
- Date: Wed, 15 Jan 2020 13:13:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 07:41:12.520488
- Title: Exploiting Event Cameras for Spatio-Temporal Prediction of Fast-Changing
Trajectories
- Title(参考訳): 高速交換軌道の時空間予測のための爆発型イベントカメラ
- Authors: Marco Monforte, Ander Arriandiaga, Arren Glover and Chiara Bartolozzi
- Abstract要約: 本稿では,ロボットと移動目標との相互作用を改善するため,ロボットの軌道予測について検討する。
本稿では,Long-Short Term Memory (LSTM)アーキテクチャに基づく機械学習の現状について述べる。
- 参考スコア(独自算出の注目度): 7.13400854198045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates trajectory prediction for robotics, to improve the
interaction of robots with moving targets, such as catching a bouncing ball.
Unexpected, highly-non-linear trajectories cannot easily be predicted with
regression-based fitting procedures, therefore we apply state of the art
machine learning, specifically based on Long-Short Term Memory (LSTM)
architectures. In addition, fast moving targets are better sensed using event
cameras, which produce an asynchronous output triggered by spatial change,
rather than at fixed temporal intervals as with traditional cameras. We
investigate how LSTM models can be adapted for event camera data, and in
particular look at the benefit of using asynchronously sampled data.
- Abstract(参考訳): 本稿では,ロボットの軌道予測について検討し,バウンスボールをキャッチするなどの移動目標との相互作用を改善する。
予測不能で非線形な軌道は回帰に基づく適応法では容易には予測できないため、特に長短項記憶(LSTM)アーキテクチャに基づく機械学習の状態を応用する。
さらに、高速移動ターゲットは、従来のカメラのように時間間隔が一定ではなく、空間変化によって引き起こされる非同期出力を生成するイベントカメラにより、よりよく認識される。
イベントカメラデータに適用可能なLSTMモデルについて検討し,特に非同期サンプリングデータの有用性について検討する。
関連論文リスト
- BlinkTrack: Feature Tracking over 100 FPS via Events and Images [50.98675227695814]
本稿では,RGB画像とイベントデータを統合した新しいフレームワークであるBlinkTrackを提案する。
本手法は,従来のカルマンフィルタを学習ベースのフレームワークに拡張し,イベントおよびイメージの分岐において微分可能なカルマンフィルタを利用する。
実験の結果、BlinkTrackは既存のイベントベースの手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-09-26T15:54:18Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Event Camera-based Visual Odometry for Dynamic Motion Tracking of a
Legged Robot Using Adaptive Time Surface [5.341864681049579]
イベントカメラは高時間分解能とダイナミックレンジを提供しており、高速移動時のぼやけたRGB画像の問題を排除できる。
本稿では,従来の時間面におけるホワイトアウト問題とブラックアウト問題に対処する適応時間面(ATS)手法を提案する。
最後に,RGBとイベントベースの地図と画像の両方で3D-2Dアライメントを同時に行う非線形ポーズ最適化式を提案する。
論文 参考訳(メタデータ) (2023-05-15T19:03:45Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - Fast Trajectory End-Point Prediction with Event Cameras for Reactive
Robot Control [4.110120522045467]
本稿では,これらの問題を克服するために,イベントカメラの低レイテンシ,動作駆動サンプリング,データ圧縮特性を活用することを提案する。
ユースケースとして、私たちはパンダのロボットアームを使って、テーブルの上で跳ねるボールをインターセプトします。
シミュレーションでネットワークをトレーニングし、データセットの取得を高速化し、実際の軌道上でモデルを微調整します。
論文 参考訳(メタデータ) (2023-02-27T14:14:52Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。