論文の概要: SEBVS: Synthetic Event-based Visual Servoing for Robot Navigation and Manipulation
- arxiv url: http://arxiv.org/abs/2508.17643v1
- Date: Mon, 25 Aug 2025 04:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.624794
- Title: SEBVS: Synthetic Event-based Visual Servoing for Robot Navigation and Manipulation
- Title(参考訳): SEBVS: ロボットナビゲーションと操作のための合成イベントベースのビジュアルサーボ
- Authors: Krishna Vinod, Prithvi Jai Ramesh, Pavan Kumar B N, Bharatesh Chakravarthi,
- Abstract要約: 本研究は,Gazeboシミュレーションのためのオープンソースでユーザフレンドリな v2e ロボットオペレーティングシステム (ROS) パッケージを提供する。
このパッケージは、リアルタイムナビゲーションと操作のためのイベントベースのロボットポリシーの調査に使用される。
結果は、リアルタイムのロボットナビゲーションと操作を改善するイベント駆動型認識の可能性を強調している。
- 参考スコア(独自算出の注目度): 1.983259889617852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras offer microsecond latency, high dynamic range, and low power consumption, making them ideal for real-time robotic perception under challenging conditions such as motion blur, occlusion, and illumination changes. However, despite their advantages, synthetic event-based vision remains largely unexplored in mainstream robotics simulators. This lack of simulation setup hinders the evaluation of event-driven approaches for robotic manipulation and navigation tasks. This work presents an open-source, user-friendly v2e robotics operating system (ROS) package for Gazebo simulation that enables seamless event stream generation from RGB camera feeds. The package is used to investigate event-based robotic policies (ERP) for real-time navigation and manipulation. Two representative scenarios are evaluated: (1) object following with a mobile robot and (2) object detection and grasping with a robotic manipulator. Transformer-based ERPs are trained by behavior cloning and compared to RGB-based counterparts under various operating conditions. Experimental results show that event-guided policies consistently deliver competitive advantages. The results highlight the potential of event-driven perception to improve real-time robotic navigation and manipulation, providing a foundation for broader integration of event cameras into robotic policy learning. The GitHub repo for the dataset and code: https://eventbasedvision.github.io/SEBVS/
- Abstract(参考訳): イベントカメラはマイクロ秒のレイテンシ、高いダイナミックレンジ、低消費電力を提供するため、動きのぼやけ、閉塞、照明変更といった困難な条件下でのリアルタイムロボット知覚に理想的である。
しかし、その利点にもかかわらず、合成イベントベースのビジョンは主流のロボティクスシミュレーターでは探索されていない。
このシミュレーション設定の欠如は、ロボット操作やナビゲーションタスクにおけるイベント駆動アプローチの評価を妨げる。
本研究は,RGBカメラフィードからのシームレスなイベントストリーム生成を可能にする,Gazeboシミュレーション用オープンソースでユーザフレンドリなv2eロボットオペレーティングシステム(ROS)パッケージを提供する。
このパッケージは、リアルタイムナビゲーションと操作のためのイベントベースのロボットポリシー(ERP)を調べるために使用される。
1)移動ロボットによる物体追跡,(2)ロボットマニピュレータによる物体検出と把握の2つのシナリオが評価された。
トランスフォーマーベースのERPは、動作クローニングによって訓練され、様々な操作条件下でRGBベースのERPと比較される。
実験結果から、イベント誘導ポリシーは一貫して競争上の優位性をもたらすことが示された。
その結果は、リアルタイムのロボットナビゲーションと操作を改善するためのイベント駆動認識の可能性を強調し、イベントカメラをロボットポリシー学習に統合するための基盤を提供する。
データセットとコードのGitHubリポジトリ: https://eventbasedvision.github.io/SEBVS/
関連論文リスト
- Toward Human-Robot Teaming: Learning Handover Behaviors from 3D Scenes [28.930178662944446]
本稿では,RGB画像のみから,人間とロボットのハンドオーバに着目したHRTポリシーのトレーニング手法を提案する。
ロボットグリップに装着したカメラでキャプチャした画像アクション対を含むロボットデモを生成する。
これにより、再構成シーンにおけるシミュレートされたカメラポーズ変更を直接グリップポーズ変更に変換することができる。
論文 参考訳(メタデータ) (2025-08-13T14:47:31Z) - Learning human-to-robot handovers through 3D scene reconstruction [28.930178662944446]
本稿では,RGB画像のみから教師付きロボットハンドオーバを学習する手法を提案する。
ロボットグリップに装着したカメラでキャプチャした画像アクション対を含むロボットデモを生成する。
これにより、再構成シーンにおけるシミュレートされたカメラポーズ変更を直接グリップポーズ変更に変換することができる。
論文 参考訳(メタデータ) (2025-07-11T16:26:31Z) - Taccel: Scaling Up Vision-based Tactile Robotics via High-performance GPU Simulation [50.34179054785646]
ロボット,触覚センサ,物体を精度と前例のない速度でモデル化するために,IPCとABDを統合した高性能なシミュレーションプラットフォームであるTaccelを提案する。
Taccelは正確な物理シミュレーションとリアルな触覚信号を提供し、ユーザフレンドリーなAPIを通じて柔軟なロボットセンサー構成をサポートする。
これらの能力は、触覚ロボットの研究と開発を拡大するための強力なツールとして、Taccelを位置づけている。
論文 参考訳(メタデータ) (2025-04-17T12:57:11Z) - VidBot: Learning Generalizable 3D Actions from In-the-Wild 2D Human Videos for Zero-Shot Robotic Manipulation [53.63540587160549]
VidBotは、WildのモノクルなRGBのみの人間ビデオから学習した3Dアベイランスを使って、ゼロショットロボット操作を可能にするフレームワークである。
VidBotは、人間の日常的なビデオを利用してロボットの学習をよりスケーラブルにする。
論文 参考訳(メタデータ) (2025-03-10T10:04:58Z) - Sim-to-Real Transfer for Mobile Robots with Reinforcement Learning: from NVIDIA Isaac Sim to Gazebo and Real ROS 2 Robots [1.2773537446441052]
この記事では、イザックの地域計画と障害物回避への応用を実証することに焦点を当てる。
ロボット・オペレーティング・システム(ROS)のナビゲーション・スタックであるNav2でエンドツーエンドのポリシーをベンチマークする。
また、Isaacシミュレータで訓練されたポリシーを実世界のロボットにゼロショット転送可能であることを示すことで、sim-to-realトランスファープロセスをカバーしている。
論文 参考訳(メタデータ) (2025-01-06T10:26:16Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Neuromorphic Eye-in-Hand Visual Servoing [0.9949801888214528]
イベントカメラは、低レイテンシと広いダイナミックレンジで人間のような視覚機能を提供する。
本稿では,イベントカメラとスイッチング制御戦略を用いて,探索,到達,把握を行う視覚サーボ手法を提案する。
実験は、異なる形状の物体を追跡して把握する手法の有効性を、再学習を必要とせずに証明する。
論文 参考訳(メタデータ) (2020-04-15T23:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。