論文の概要: Learning Models as Functionals of Signed-Distance Fields for
Manipulation Planning
- arxiv url: http://arxiv.org/abs/2110.00792v1
- Date: Sat, 2 Oct 2021 12:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:14:12.374238
- Title: Learning Models as Functionals of Signed-Distance Fields for
Manipulation Planning
- Title(参考訳): 操作計画のための符号付き距離場機能としての学習モデル
- Authors: Danny Driess, Jung-Su Ha, Marc Toussaint, Russ Tedrake
- Abstract要約: 本研究では,シーン内のオブジェクトを表す符号付き距離場の目的を学習する,最適化に基づく操作計画フレームワークを提案する。
オブジェクトを符号付き距離場として表現することは、ポイントクラウドや占有率の表現よりも高い精度で、様々なモデルの学習と表現を可能にする。
- 参考スコア(独自算出の注目度): 51.74463056899926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes an optimization-based manipulation planning framework
where the objectives are learned functionals of signed-distance fields that
represent objects in the scene. Most manipulation planning approaches rely on
analytical models and carefully chosen abstractions/state-spaces to be
effective. A central question is how models can be obtained from data that are
not primarily accurate in their predictions, but, more importantly, enable
efficient reasoning within a planning framework, while at the same time being
closely coupled to perception spaces. We show that representing objects as
signed-distance fields not only enables to learn and represent a variety of
models with higher accuracy compared to point-cloud and occupancy measure
representations, but also that SDF-based models are suitable for
optimization-based planning. To demonstrate the versatility of our approach, we
learn both kinematic and dynamic models to solve tasks that involve hanging
mugs on hooks and pushing objects on a table. We can unify these quite
different tasks within one framework, since SDFs are the common object
representation. Video: https://youtu.be/ga8Wlkss7co
- Abstract(参考訳): 本研究では,シーン内のオブジェクトを表す符号付き距離場の目的を学習する最適化に基づく操作計画フレームワークを提案する。
ほとんどの操作計画手法は解析モデルと慎重に選択された抽象化/状態空間に頼っている。
中心的な疑問は、予測において主に正確ではなく、計画枠組み内で効率的な推論を可能にすると同時に、知覚空間と密接な関係を持つデータからモデルをどのように得るかである。
対象を符号付き距離場として表現することで,多種多様なモデルの学習と表現が可能となるだけでなく,sdfモデルが最適化に基づく計画に適合することを示す。
提案手法の汎用性を示すために,マウスをフックに掛けたり,テーブル上でオブジェクトをプッシュしたりするタスクを解決するために,運動モデルと動的モデルの両方を学ぶ。
sdfは共通のオブジェクト表現であるため、これら全く異なるタスクを1つのフレームワークで統一することができます。
ビデオ: https://youtu.be/ga8Wlkss7co
関連論文リスト
- Keypoint Abstraction using Large Models for Object-Relative Imitation Learning [78.92043196054071]
多様なタスクや環境にまたがる新しいオブジェクト構成やインスタンスへの一般化は、ロボット工学において重要な課題である。
キーポイントに基づく表現は、本質的なオブジェクトキャプチャ機能のための簡潔な表現として有効であることが証明されている。
本稿では,タスク関連およびクロスインスタンス整合性キーポイントの自動生成に,大規模な事前学習型視覚言語モデルを活用するフレームワークであるKALMを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:37:31Z) - Compositional Foundation Models for Hierarchical Planning [52.18904315515153]
本稿では,言語,視覚,行動データを個別に訓練し,長期的課題を解決するための基礎モデルを提案する。
我々は,大規模なビデオ拡散モデルを用いて,環境に根ざした記号的計画を構築するために,大規模言語モデルを用いている。
生成したビデオプランは、生成したビデオからアクションを推論する逆ダイナミクスモデルを通じて、視覚運動制御に基礎を置いている。
論文 参考訳(メタデータ) (2023-09-15T17:44:05Z) - An Object SLAM Framework for Association, Mapping, and High-Level Tasks [12.62957558651032]
本稿では,オブジェクト指向認識とオブジェクト指向ロボットタスクに焦点を当てた包括的オブジェクトSLAMフレームワークを提案する。
提案したオブジェクトSLAMフレームワークを効率よく評価するために,さまざまな公開データセットと実世界の結果が使用されている。
論文 参考訳(メタデータ) (2023-05-12T08:10:14Z) - LLM2Loss: Leveraging Language Models for Explainable Model Diagnostics [5.33024001730262]
我々は、失敗とバイアスのモデルパターンに関するセマンティックな洞察を提供するアプローチを提案する。
このような軽量モデルのアンサンブルを用いて,ブラックボックスモデルの性能に関する洞察を得られることを示す。
論文 参考訳(メタデータ) (2023-05-04T23:54:37Z) - KINet: Unsupervised Forward Models for Robotic Pushing Manipulation [8.572983995175909]
キーポイント表現に基づいたオブジェクトインタラクションを推論する、教師なしフレームワークKINetを紹介します。
我々のモデルは、オブジェクトとキーポイント座標を関連付けることを学び、システムのグラフ表現を発見する。
キーポイント空間における物理的推論を学習することにより、我々のモデルは、異なる数のオブジェクトを持つシナリオに自動的に一般化する。
論文 参考訳(メタデータ) (2022-02-18T03:32:08Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Learning Long-term Visual Dynamics with Region Proposal Interaction
Networks [75.06423516419862]
オブジェクト間およびオブジェクト環境間の相互作用を長距離にわたってキャプチャするオブジェクト表現を構築します。
単純だが効果的なオブジェクト表現のおかげで、我々の手法は先行手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-08-05T17:48:00Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。