論文の概要: Human-Robot Navigation using Event-based Cameras and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2506.10790v1
- Date: Thu, 12 Jun 2025 15:03:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.80296
- Title: Human-Robot Navigation using Event-based Cameras and Reinforcement Learning
- Title(参考訳): イベントベースカメラと強化学習を用いた人間ロボットナビゲーション
- Authors: Ignacio Bugueno-Cordova, Javier Ruiz-del-Solar, Rodrigo Verschae,
- Abstract要約: この研究は、イベントカメラと他のセンサーと強化学習を組み合わせたロボットナビゲーションコントローラを導入し、リアルタイムの人間中心ナビゲーションと障害物回避を可能にした。
固定レートで動作し、動きのぼやけや遅延に悩まされる従来のイメージベースコントローラとは異なり、このアプローチはイベントカメラの非同期特性を活用して、フレキシブルな時間間隔で視覚情報を処理する。
- 参考スコア(独自算出の注目度): 1.7614751781649955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces a robot navigation controller that combines event cameras and other sensors with reinforcement learning to enable real-time human-centered navigation and obstacle avoidance. Unlike conventional image-based controllers, which operate at fixed rates and suffer from motion blur and latency, this approach leverages the asynchronous nature of event cameras to process visual information over flexible time intervals, enabling adaptive inference and control. The framework integrates event-based perception, additional range sensing, and policy optimization via Deep Deterministic Policy Gradient, with an initial imitation learning phase to improve sample efficiency. Promising results are achieved in simulated environments, demonstrating robust navigation, pedestrian following, and obstacle avoidance. A demo video is available at the project website.
- Abstract(参考訳): この研究は、イベントカメラと他のセンサーと強化学習を組み合わせたロボットナビゲーションコントローラを導入し、リアルタイムの人間中心ナビゲーションと障害物回避を可能にした。
固定レートで動作し、動きのぼやけや遅延に悩まされる従来のイメージベースコントローラとは異なり、このアプローチはイベントカメラの非同期特性を活用して、フレキシブルな時間間隔で視覚情報を処理し、適応的な推論と制御を可能にする。
このフレームワークは、イベントベースの認識、追加レンジセンシング、Deep Deterministic Policy Gradientによるポリシー最適化と、サンプル効率を改善するための最初の模倣学習フェーズを統合する。
シミュレーション環境では,ロバストなナビゲーション,歩行者追従,障害物回避などの成果が得られた。
デモビデオはプロジェクトのWebサイトで公開されている。
関連論文リスト
- Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - E-Motion: Future Motion Simulation via Event Sequence Diffusion [86.80533612211502]
イベントベースのセンサーは、これまで達成できなかった詳細と精度で将来の動きを予測するユニークな機会を提供する可能性がある。
本稿では,映像拡散モデルの強力な学習能力とイベントカメラのリッチな動作情報とを,モーションシミュレーションフレームワークとして統合することを提案する。
本研究は,コンピュータビジョンシステムの解釈能力と予測精度の向上に向けた今後の研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2024-10-11T09:19:23Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Representation Learning for Event-based Visuomotor Policies [18.4767874925189]
非同期イベントデータからの教師なし表現のためのイベント自動コーダを提案する。
テンポラリなイベントデータからコンテクストのエンコードまで,コンパクトな表現を学習することが可能であることを示す。
シミュレーションで障害物回避シナリオに適用することにより、この枠組みの学習のバイスモモモターポリシーを検証します。
論文 参考訳(メタデータ) (2021-03-01T07:04:00Z) - Neuromorphic Eye-in-Hand Visual Servoing [0.9949801888214528]
イベントカメラは、低レイテンシと広いダイナミックレンジで人間のような視覚機能を提供する。
本稿では,イベントカメラとスイッチング制御戦略を用いて,探索,到達,把握を行う視覚サーボ手法を提案する。
実験は、異なる形状の物体を追跡して把握する手法の有効性を、再学習を必要とせずに証明する。
論文 参考訳(メタデータ) (2020-04-15T23:57:54Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Aggressive Perception-Aware Navigation using Deep Optical Flow Dynamics
and PixelMPC [21.81438321320149]
我々は,光学フローとロボットダイナミクスを組み合わせた深部光学フロー(DOF)ダイナミクスを導入する。
DOFダイナミクスを用いて、MPCはロボットの計画軌跡に関連画素の予測運動を明示的に組み込む。
DOFの実装はメモリ効率が良く、データ効率が良く、計算コストも安いので、MPCフレームワークでリアルタイムに計算することができる。
論文 参考訳(メタデータ) (2020-01-07T22:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。