論文の概要: Placeit! A Framework for Learning Robot Object Placement Skills
- arxiv url: http://arxiv.org/abs/2510.09267v1
- Date: Fri, 10 Oct 2025 11:08:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.791283
- Title: Placeit! A Framework for Learning Robot Object Placement Skills
- Title(参考訳): ロボットの配置スキルを学習するフレームワークPlaceit!
- Authors: Amina Ferrad, Johann Huber, François Hélénon, Julien Gleyze, Mahdi Khoramshahi, Stéphane Doncieux,
- Abstract要約: Placeit!は、剛体物体の有効な配置位置を生成するための進化計算フレームワークである。
私たちのフレームワーク上に構築されたピック&プレースパイプラインは、120の現実世界のデプロイメントに対して90%の成功率を達成した。
- 参考スコア(独自算出の注目度): 3.2192849846711376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotics research has made significant strides in learning, yet mastering basic skills like object placement remains a fundamental challenge. A key bottleneck is the acquisition of large-scale, high-quality data, which is often a manual and laborious process. Inspired by Graspit!, a foundational work that used simulation to automatically generate dexterous grasp poses, we introduce Placeit!, an evolutionary-computation framework for generating valid placement positions for rigid objects. Placeit! is highly versatile, supporting tasks from placing objects on tables to stacking and inserting them. Our experiments show that by leveraging quality-diversity optimization, Placeit! significantly outperforms state-of-the-art methods across all scenarios for generating diverse valid poses. A pick&place pipeline built on our framework achieved a 90% success rate over 120 real-world deployments. This work positions Placeit! as a powerful tool for open-environment pick-and-place tasks and as a valuable engine for generating the data needed to train simulation-based foundation models in robotics.
- Abstract(参考訳): ロボティクスの研究は、学習に大きく貢献してきたが、オブジェクトの配置のような基本的なスキルを習得することは、依然として根本的な課題だ。
重要なボトルネックは、大規模で高品質なデータを取得することだ。
Inspireed by Graspit!, a foundational work that using Simulation to Automatic Genedexterous grasp poses, we introduced Placeit!, a Evolution-computation framework for valid placement position for rigid objects。
Placeit!は非常に多用途で、テーブル上にオブジェクトを置くことから、積み重ねて挿入することまでタスクをサポートする。
実験の結果、Placeit!は品質の多様性を最適化することで、さまざまな有効なポーズを生成するためのすべてのシナリオにおいて、最先端のメソッドを著しく上回ります。
私たちのフレームワーク上に構築されたピック&プレースパイプラインは、120の現実世界のデプロイメントに対して90%の成功率を達成した。
この研究は、Placeit!をオープン環境のピック・アンド・プレイス・タスクの強力なツールとして位置づけ、ロボット工学におけるシミュレーションベースの基礎モデルのトレーニングに必要なデータを生成するための貴重なエンジンとして位置づけている。
関連論文リスト
- Optimizing Grasping in Legged Robots: A Deep Learning Approach to Loco-Manipulation [0.6533458718563319]
本稿では,腕を備えた四足歩行の把握能力を高めるために,深層学習フレームワークを提案する。
我々はジェネシスシミュレーション環境内にパイプラインを構築し、共通物体の把握の試みの合成データセットを生成する。
このデータセットは、オンボードのRGBとディープカメラからのマルチモーダル入力を処理するU-Netのようなアーキテクチャで、カスタムCNNのトレーニングに使用された。
論文 参考訳(メタデータ) (2025-08-24T17:47:56Z) - AnyPlace: Learning Generalized Object Placement for Robot Manipulation [29.482987292744568]
合成データに基づく2段階の手法であるAnyPlaceを提案する。
私たちのキーとなる洞察は、ビジョン・ランゲージ・モデルを活用することで、ローカルな配置のために、関連する領域のみに焦点を当てるということです。
トレーニングのために、異なる配置構成でランダムに生成されたオブジェクトの完全な合成データセットを生成する。
実世界の実験では、我々の手法が純粋に訓練されたモデルを直接現実世界に転送する方法が示されている。
論文 参考訳(メタデータ) (2025-02-06T22:04:13Z) - RoboCasa: Large-Scale Simulation of Everyday Tasks for Generalist Robots [25.650235551519952]
本稿では,汎用ロボットを日常的に訓練するための大規模シミュレーションフレームワークであるRoboCasaを紹介する。
私たちは、150以上のオブジェクトカテゴリと数十の対話可能な家具とアプライアンスに対して、何千もの3Dアセットを提供しています。
本実験は, 大規模模倣学習のための合成ロボットデータを用いて, スケーリングの傾向を明らかにするものである。
論文 参考訳(メタデータ) (2024-06-04T17:41:31Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - Reinforcement Learning with Foundation Priors: Let the Embodied Agent Efficiently Learn on Its Own [59.11934130045106]
我々は、政策、価値、成功-回帰基盤モデルからのガイダンスとフィードバックを活用するために、RLFP(Reinforcement Learning with Foundation Priors)を提案する。
本フレームワークでは,自動報酬関数を用いてより効率的にエージェントを探索できるファウンデーション誘導型アクター・クリティカル(FAC)アルゴリズムを導入する。
本手法は,実ロボットとシミュレーションの両方において,様々な操作タスクにおいて顕著な性能を実現する。
論文 参考訳(メタデータ) (2023-10-04T07:56:42Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。