論文の概要: SCOOP'D: Learning Mixed-Liquid-Solid Scooping via Sim2Real Generative Policy
- arxiv url: http://arxiv.org/abs/2510.11566v1
- Date: Mon, 13 Oct 2025 16:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.448503
- Title: SCOOP'D: Learning Mixed-Liquid-Solid Scooping via Sim2Real Generative Policy
- Title(参考訳): SCOOP'D: Sim2Real Generative Policy による混合液固溶スクーピングの学習
- Authors: Kuanning Wang, Yongchong Gu, Yuqian Fu, Zeyu Shangguan, Sicheng He, Xiangyang Xue, Yanwei Fu, Daniel Seita,
- Abstract要約: 我々は,OmniGibson(NVIDIA Omniverseをベースとした)のシミュレーションを用いて,スクーピングデモの収集を行うSCOOP'Dを提案する。
学習したポリシーを現実世界のさまざまなシナリオに適用し、さまざまなアイテム量、アイテム特性、コンテナタイプでそのパフォーマンスをテストする。
SCOOP'Dはすべてのベースラインとアブリケーションを上回り、これはロボットスクーピングスキルを取得するための有望なアプローチであることを示唆している。
- 参考スコア(独自算出の注目度): 51.46611106470501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scooping items with tools such as spoons and ladles is common in daily life, ranging from assistive feeding to retrieving items from environmental disaster sites. However, developing a general and autonomous robotic scooping policy is challenging since it requires reasoning about complex tool-object interactions. Furthermore, scooping often involves manipulating deformable objects, such as granular media or liquids, which is challenging due to their infinite-dimensional configuration spaces and complex dynamics. We propose a method, SCOOP'D, which uses simulation from OmniGibson (built on NVIDIA Omniverse) to collect scooping demonstrations using algorithmic procedures that rely on privileged state information. Then, we use generative policies via diffusion to imitate demonstrations from observational input. We directly apply the learned policy in diverse real-world scenarios, testing its performance on various item quantities, item characteristics, and container types. In zero-shot deployment, our method demonstrates promising results across 465 trials in diverse scenarios, including objects of different difficulty levels that we categorize as "Level 1" and "Level 2." SCOOP'D outperforms all baselines and ablations, suggesting that this is a promising approach to acquiring robotic scooping skills. Project page is at https://scoopdiff.github.io/.
- Abstract(参考訳): スプーンやろうそくなどの道具でアイテムをスクーピングすることは、生活において一般的なもので、補助給餌から環境災害現場からのアイテムの回収までである。
しかし、複雑なツールとオブジェクトの相互作用を推論する必要があるため、汎用的で自律的なロボットスクーピングポリシーの開発は困難である。
さらに、スクーピングはしばしば、粒状体や液体のような変形可能な物体を操作するが、これはその無限次元の構成空間と複雑な力学のために困難である。
我々は,OmniGibson(NVIDIA Omniverseをベースとした)のシミュレーションを用いて,特権状態情報に依存するアルゴリズムによるスクーピングデモを収集するSCOOP'Dを提案する。
次に、拡散による生成ポリシーを用いて、観測入力から実演を模倣する。
学習したポリシーを直接現実世界のさまざまなシナリオに適用し、さまざまなアイテム量、アイテム特性、コンテナタイプでそのパフォーマンスをテストする。
ゼロショット展開では、"Level 1" と "Level 2" に分類される難易度が異なるオブジェクトを含む、様々なシナリオで465の試行にまたがる有望な結果を示す。
SCOOP'Dはすべてのベースラインとアブリケーションを上回り、これはロボットスクーピングスキルを取得するための有望なアプローチであることを示唆している。
プロジェクトページはhttps://scoopdiff.github.io/にある。
関連論文リスト
- ArticuBot: Learning Universal Articulated Object Manipulation Policy via Large Scale Simulation [22.43711565969091]
Articubot(アルティキュボット)は、現実世界で目に見えないオブジェクトの多様なカテゴリをオープンするポリシーを学ぶシステムである。
学習したポリシーは、3つの異なるリアルロボット設定にゼロショット転送可能であることを示す。
論文 参考訳(メタデータ) (2025-03-04T22:51:50Z) - DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - Grasp Anything: Combining Teacher-Augmented Policy Gradient Learning with Instance Segmentation to Grasp Arbitrary Objects [18.342569823885864]
TAPG(Teacher-Augmented Policy Gradient)は、強化学習と政策蒸留を統括する新しい2段階学習フレームワークである。
TAPGは、オブジェクトセグメンテーションに基づいて、誘導的かつ適応的でありながら、センセータポリシーの学習を促進する。
トレーニングされたポリシーは、シミュレーションにおける散らかったシナリオや、人間の理解可能なプロンプトに基づいて現実世界から、多種多様なオブジェクトを順応的に把握する。
論文 参考訳(メタデータ) (2024-03-15T10:48:16Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Learning Generalizable Dexterous Manipulation from Human Grasp
Affordance [11.060931225148936]
マルチフィンガーハンドによる有害な操作は、ロボット工学における最も難しい問題の1つだ。
模倣学習の最近の進歩は、強化学習と比較してサンプル効率を大幅に改善した。
本稿では,様々な3Dオブジェクトをカテゴリ内に配置した大規模実演を用いて,デクスタラスな操作を学習することを提案する。
論文 参考訳(メタデータ) (2022-04-05T16:26:22Z) - Composable Learning with Sparse Kernel Representations [110.19179439773578]
再生カーネルヒルベルト空間におけるスパース非パラメトリック制御系を学習するための強化学習アルゴリズムを提案する。
正規化アドバンテージ関数を通じてステートアクション関数の構造を付与することにより、このアプローチのサンプル複雑さを改善します。
2次元環境下を走行しながらレーザースキャナーを搭載したロボットの複数シミュレーションにおける障害物回避政策の学習に関するアルゴリズムの性能を実証する。
論文 参考訳(メタデータ) (2021-03-26T13:58:23Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。