論文の概要: Bench-Push: Benchmarking Pushing-based Navigation and Manipulation Tasks for Mobile Robots
- arxiv url: http://arxiv.org/abs/2512.11736v1
- Date: Fri, 12 Dec 2025 17:25:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.306603
- Title: Bench-Push: Benchmarking Pushing-based Navigation and Manipulation Tasks for Mobile Robots
- Title(参考訳): Bench-Push: 移動ロボットのためのプッシュベースのナビゲーションと操作タスクのベンチマーク
- Authors: Ninghan Zhong, Steven Caro, Megnath Ramesh, Rishi Bhatnagar, Avraiem Iskandar, Stephen L. Smith,
- Abstract要約: Bench-Pushはプッシュベースのモバイルロボットナビゲーションと操作タスクのための最初の統一ベンチマークである。
これには、プッシュベースのタスクにおける基本的な課題を捉える、シミュレーションされた環境の幅が含まれている。
また、効率性、インタラクションの取り組み、部分的なタスク完了を捉えるための新しい評価指標も含まれている。
- 参考スコア(独自算出の注目度): 6.551328007366227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile robots are increasingly deployed in cluttered environments with movable objects, posing challenges for traditional methods that prohibit interaction. In such settings, the mobile robot must go beyond traditional obstacle avoidance, leveraging pushing or nudging strategies to accomplish its goals. While research in pushing-based robotics is growing, evaluations rely on ad hoc setups, limiting reproducibility and cross-comparison. To address this, we present Bench-Push, the first unified benchmark for pushing-based mobile robot navigation and manipulation tasks. Bench-Push includes multiple components: 1) a comprehensive range of simulated environments that capture the fundamental challenges in pushing-based tasks, including navigating a maze with movable obstacles, autonomous ship navigation in ice-covered waters, box delivery, and area clearing, each with varying levels of complexity; 2) novel evaluation metrics to capture efficiency, interaction effort, and partial task completion; and 3) demonstrations using Bench-Push to evaluate example implementations of established baselines across environments. Bench-Push is open-sourced as a Python library with a modular design. The code, documentation, and trained models can be found at https://github.com/IvanIZ/BenchNPIN.
- Abstract(参考訳): 移動ロボットは、移動物体で散らばった環境にますます展開され、対話を禁止している従来の方法の課題となっている。
このような環境では、移動ロボットは従来の障害物回避を超越し、目標を達成するためにプッシュ戦略やナッジ戦略を活用する必要がある。
プッシュベースのロボティクスの研究は増えているが、評価はアドホックな設定に依存し、再現性や相互比較を制限している。
そこで我々は,プッシュベースの移動ロボットナビゲーションと操作タスクのための最初の統一ベンチマークであるBench-Pushを紹介する。
Bench-Pushには複数のコンポーネントが含まれている。
1)氷に覆われた水域における迷路の移動、自動船の航行、箱の配達、地域浄化など、プッシュベースタスクの基本的な課題を捉えた総合的なシミュレートされた環境。
2 効率、相互作用、部分的な作業完了を捉えるための新しい評価指標
3) Bench-Pushを使って環境横断で確立されたベースラインの実装例を評価する。
Bench-Pushは、モジュール化された設計のPythonライブラリとしてオープンソース化されている。
コード、ドキュメンテーション、トレーニングされたモデルはhttps://github.com/IvanIZ/BenchNPIN.orgにある。
関連論文リスト
- MolmoSpaces: A Large-Scale Open Ecosystem for Robot Navigation and Manipulation [56.30931340537373]
MolmoSpacesは、ロボットポリシーのベンチマークをサポートするための、完全にオープンなエコシステムである。
MolmoSpacesは230万以上の屋内環境で構成されている。
MolmoSpaces-Benchは8つのタスクのベンチマークスイートで、ロボットが私たちの多様なシーンとリッチな注釈付きオブジェクトと対話する。
論文 参考訳(メタデータ) (2026-02-11T20:16:31Z) - MobileManiBench: Simplifying Model Verification for Mobile Manipulation [70.30578259859512]
MobileManiBenchは、モバイルベースのロボット操作のための大規模なベンチマークである。
MobileManiBenchには、2つのモバイルプラットフォーム(パラレルグリッパーとデキソラスハンドロボット)、2つの同期カメラ(頭と右手首)、630のオブジェクト(オープン、クローズ、プル、プッシュ、ピック)、5つのスキル(オープン、クローズ、プッシュ、ピック)、100以上のタスクが現実的なシーンで実行される。
論文 参考訳(メタデータ) (2026-02-05T02:49:52Z) - RoboRAN: A Unified Robotics Framework for Reinforcement Learning-Based Autonomous Navigation [15.548637925166986]
多様なロボットプラットフォームと運用環境にまたがって、RLベースのナビゲーションポリシーをトレーニング、評価、デプロイするためのマルチドメインフレームワークを提案する。
本研究は,(1)シームレスなロボットタスク交換性と再現可能なトレーニングパイプラインを実現するスケーラブルでモジュール化されたフレームワーク,(2)複数のロボットによる実世界実験を通じて実世界へのトランスファーを実証するsim-to-real,(3)Isaac Labがトレーニングしたポリシーを実際のロボットに展開する最初のオープンソースAPIのリリース,の4つの重要な貢献について述べる。
論文 参考訳(メタデータ) (2025-05-20T15:48:23Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - CorNav: Autonomous Agent with Self-Corrected Planning for Zero-Shot Vision-and-Language Navigation [73.78984332354636]
CorNavは視覚・言語ナビゲーションのための新しいゼロショットフレームワークである。
将来の計画の見直しや行動調整のための環境フィードバックが組み込まれている。
ゼロショットマルチタスク設定ですべてのベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-06-17T11:44:04Z) - N$^2$M$^2$: Learning Navigation for Arbitrary Mobile Manipulation
Motions in Unseen and Dynamic Environments [9.079709086741987]
モバイル操作のためのニューラルナビゲーション(N$2$M$2$)を導入する。
結果として生じるアプローチは、動的障害物や環境変化に即座に反応しながら、探索されていない環境で、目に見えない、長い水平タスクを実行することができる。
提案手法は,複数の運動学的に多様な移動マニピュレータ上での広範囲なシミュレーションおよび実世界の実験において有効であることを示す。
論文 参考訳(メタデータ) (2022-06-17T12:52:41Z) - Simultaneous Navigation and Construction Benchmarking Environments [73.0706832393065]
モバイル構築のためのインテリジェントなロボット、環境をナビゲートし、幾何学的設計に従ってその構造を変更するプロセスが必要です。
このタスクでは、ロボットのビジョンと学習の大きな課題は、GPSなしでデザインを正確に達成する方法です。
我々は,手工芸政策の性能を,基礎的なローカライゼーションと計画,最先端の深層強化学習手法を用いて評価した。
論文 参考訳(メタデータ) (2021-03-31T00:05:54Z) - Articulated Object Interaction in Unknown Scenes with Whole-Body Mobile
Manipulation [16.79185733369416]
未知の環境下における大型関節オブジェクトとの自律的相互作用のための2段階アーキテクチャを提案する。
第1段階は学習モデルを用いて、RGB-D入力から対象物の調音モデルを推定し、相互作用のための状態の動作条件列を予測する。
第2段階は、生成した運動計画に沿ってオブジェクトを操作する全身運動制御装置からなる。
論文 参考訳(メタデータ) (2021-03-18T21:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。