論文の概要: BEHAVIOR Robot Suite: Streamlining Real-World Whole-Body Manipulation for Everyday Household Activities
- arxiv url: http://arxiv.org/abs/2503.05652v1
- Date: Fri, 07 Mar 2025 18:15:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:24:58.705988
- Title: BEHAVIOR Robot Suite: Streamlining Real-World Whole-Body Manipulation for Everyday Household Activities
- Title(参考訳): Behavior Robot Suite: 日々の家庭活動のための実世界全体操作の合理化
- Authors: Yunfan Jiang, Ruohan Zhang, Josiah Wong, Chen Wang, Yanjie Ze, Hang Yin, Cem Gokmen, Shuran Song, Jiajun Wu, Li Fei-Fei,
- Abstract要約: 多様な家庭作業における全身操作のための包括的枠組みであるBEHAVIOR Robot Suite (BRS)を紹介した。
BRSは4-DoFの胴体を持つ二足歩行ロボット上に構築されており、データ収集のための費用対効果の高い全身遠隔操作インタフェースと、全身の視覚運動ポリシーを学習するための新しいアルゴリズムを統合している。
- 参考スコア(独自算出の注目度): 45.61898182253723
- License:
- Abstract: Real-world household tasks present significant challenges for mobile manipulation robots. An analysis of existing robotics benchmarks reveals that successful task performance hinges on three key whole-body control capabilities: bimanual coordination, stable and precise navigation, and extensive end-effector reachability. Achieving these capabilities requires careful hardware design, but the resulting system complexity further complicates visuomotor policy learning. To address these challenges, we introduce the BEHAVIOR Robot Suite (BRS), a comprehensive framework for whole-body manipulation in diverse household tasks. Built on a bimanual, wheeled robot with a 4-DoF torso, BRS integrates a cost-effective whole-body teleoperation interface for data collection and a novel algorithm for learning whole-body visuomotor policies. We evaluate BRS on five challenging household tasks that not only emphasize the three core capabilities but also introduce additional complexities, such as long-range navigation, interaction with articulated and deformable objects, and manipulation in confined spaces. We believe that BRS's integrated robotic embodiment, data collection interface, and learning framework mark a significant step toward enabling real-world whole-body manipulation for everyday household tasks. BRS is open-sourced at https://behavior-robot-suite.github.io/
- Abstract(参考訳): 実世界の家庭用タスクは、移動ロボットにとって重要な課題である。
既存のロボティクスベンチマークの分析によると、タスクパフォーマンスの成功は、バイマニュアル調整、安定した正確なナビゲーション、広範囲なエンドエフェクタリーチビリティの3つの重要なコントロール能力にかかっている。
これらの能力を達成するには注意深いハードウェア設計が必要ですが、結果として生じるシステムの複雑さは、ビジュモータのポリシー学習をさらに複雑にします。
これらの課題に対処するために,多様な家庭作業における全身操作のための総合的な枠組みであるBEHAVIOR Robot Suite (BRS)を紹介した。
BRSは4-DoFの胴体を持つ二足歩行ロボットをベースとして構築されており、データ収集のための費用対効果の高い全身遠隔操作インタフェースと、全身振動子ポリシーを学習するための新しいアルゴリズムを統合している。
3つの中核機能を強調するだけでなく、長距離ナビゲーション、調音・変形可能な物体との相互作用、閉じ込められた空間での操作といった複雑さも導入する。
BRSの統合型ロボットエボディメント、データ収集インタフェース、学習フレームワークは、日常的な家庭作業において現実世界全体の操作を可能にするための重要なステップであると考えている。
BRSはhttps://behavior-robot-suite.github.io/でオープンソース化されている。
関連論文リスト
- RoboGrasp: A Universal Grasping Policy for Robust Robotic Control [8.189496387470726]
RoboGraspは、トレーニング済みの把握検出モデルとロボット学習を統合する、普遍的な把握ポリシーフレームワークである。
把握精度、安定性、一般化性を大幅に向上させ、数ショットの学習と把握ボックスのプロンプトタスクで最大34%の成功率を達成する。
論文 参考訳(メタデータ) (2025-02-05T11:04:41Z) - D-RMGPT: Robot-assisted collaborative tasks driven by large multimodal models [0.0]
検出ロボット管理GPT(D-RMGPT)は,LMMに基づくロボット支援組立プランナである
マーカや以前のトレーニングを必要とせずに、経験の浅い演算子をアセンブリタスクで支援することができる。
組立成功率83%を達成し、未経験者の組立時間を手作業よりも33%削減する。
論文 参考訳(メタデータ) (2024-08-21T16:34:21Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - QUAR-VLA: Vision-Language-Action Model for Quadruped Robots [37.952398683031895]
中心となるアイデアは、ロボットの全体的な知性を高めることだ。
本稿では,VLAモデルのファミリである Quadruped Robotic Transformer (QUART) を提案する。
提案手法は,動作可能なロボットポリシーを導き,一貫した能力の獲得を可能にする。
論文 参考訳(メタデータ) (2023-12-22T06:15:03Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - FurnitureBench: Reproducible Real-World Benchmark for Long-Horizon
Complex Manipulation [16.690318684271894]
強化学習(RL)、模倣学習(IL)、タスク・アンド・モーション・プランニング(TAMP)は、様々なロボット操作タスクにおいて印象的なパフォーマンスを示している。
本稿では,ロボット操作の複雑で長期的タスクである実世界の家具組み立てに焦点をあてる。
再現可能な実世界の家具組み立てベンチマークであるFurnitureBenchを紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:29:00Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Sim2Real for Peg-Hole Insertion with Eye-in-Hand Camera [58.720142291102135]
シミュレーションを用いてペグホール挿入問題を学習し,学習したモデルを実ロボットに転送する。
本稿では,RGB-Dとジョイント情報(プロレセプション)のみを取り入れたトランスファーポリシーが,実際のロボットに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-05-29T05:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。