論文の概要: PlaNet-ClothPick: Effective Fabric Flattening Based on Latent Dynamic
Planning
- arxiv url: http://arxiv.org/abs/2303.01345v2
- Date: Tue, 28 Nov 2023 12:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 16:52:26.708916
- Title: PlaNet-ClothPick: Effective Fabric Flattening Based on Latent Dynamic
Planning
- Title(参考訳): planet-clothpick:潜在動的計画に基づく布のフラット化
- Authors: Halid Abdulrahim Kadi and Kasim Terzic
- Abstract要約: 最近の研究は、観測結果のぼやけた予測によるもので、潜伏した空間を直接計画することは困難である。
ファブリックの輪郭における遷移関数の急激な不連続性は、正確な潜在動的モデルを学ぶのを困難にしている。
本モデルでは,動作推定の高速化と,この領域の最先端ロボットシステムよりもトランジショナルモデルパラメータの削減が要求される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Why do Recurrent State Space Models such as PlaNet fail at cloth manipulation
tasks? Recent work has attributed this to the blurry prediction of the
observation, which makes it difficult to plan directly in the latent space.
This paper explores the reasons behind this by applying PlaNet in the
pick-and-place fabric-flattening domain. We find that the sharp discontinuity
of the transition function on the contour of the fabric makes it difficult to
learn an accurate latent dynamic model, causing the MPC planner to produce pick
actions slightly outside of the article. By limiting picking space on the cloth
mask and training on specially engineered trajectories, our mesh-free
PlaNet-ClothPick surpasses visual planning and policy learning methods on
principal metrics in simulation, achieving similar performance as
state-of-the-art mesh-based planning approaches. Notably, our model exhibits a
faster action inference and requires fewer transitional model parameters than
the state-of-the-art robotic systems in this domain. Other supplementary
materials are available at: https://sites.google.com/view/planet-clothpick.
- Abstract(参考訳): PlaNetのようなリカレントステートスペースモデルは、なぜ布の操作に失敗するのか?
最近の研究は、観測結果のぼやけた予測によるもので、潜伏した空間を直接計画することは困難である。
本稿では,PlaNetをファブリック平滑化領域に適用することで,その背景となる理由を考察する。
ファブリックの輪郭上の遷移関数の急激な不連続性は、正確な潜在動的モデルを学ぶのを困難にし、MPCプランナーは記事の少し外側でピックアクションを生成する。
布マスクの空間を限定し,特別に設計された軌道を訓練することで,メッシュフリーのプラネットクロスピックは,シミュレーションにおける主要なメトリクスの視覚的計画法や政策学習法を上回り,最先端のメッシュベースの計画手法と同等のパフォーマンスを達成している。
特に、我々のモデルはより高速な行動推論を示し、この領域の最先端ロボットシステムよりも遷移モデルパラメータを少なくする。
その他の追加資料は、https://sites.google.com/view/planet-clothpick.comで入手できる。
関連論文リスト
- Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - A New View on Planning in Online Reinforcement Learning [19.35031543927374]
本稿では,背景計画を用いたモデルに基づく強化学習への新たなアプローチについて検討する。
GSPアルゴリズムは抽象空間から様々な基礎学習者が異なる領域でより高速に学習できるような方法で価値を伝播することができることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:45:19Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - Self-supervised Cloth Reconstruction via Action-conditioned Cloth
Tracking [18.288330275993328]
本研究では,実世界のメッシュ再構築モデルを微調整する自己教師型手法を提案する。
人間のアノテーションを必要とせずに再構成メッシュの品質を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-02-19T07:48:12Z) - Goal-Space Planning with Subgoal Models [18.43265820052893]
本稿では,背景計画を用いたモデルに基づく強化学習への新たなアプローチについて検討する。
GSPアルゴリズムは抽象空間から様々な基礎学習者が異なる領域でより高速に学習できるような方法で価値を伝播することができることを示す。
論文 参考訳(メタデータ) (2022-06-06T20:59:07Z) - Mesh-based Dynamics with Occlusion Reasoning for Cloth Manipulation [18.288330275993328]
布の完全な状態を推定することが困難になるため、布の操作には自己閉塞が困難である。
我々は,布のポーズ推定における最近の進歩を活用して,明示的な排他的推論を用いてクランプ布を広げるシステムを構築する。
論文 参考訳(メタデータ) (2022-06-06T20:15:02Z) - Visual Learning-based Planning for Continuous High-Dimensional POMDPs [81.16442127503517]
Visual Tree Search (VTS)は、オフラインで学習した生成モデルとオンラインモデルベースのPOMDP計画を組み合わせた学習と計画の手順である。
VTSは、モンテカルロの木探索プランナーにおける画像観測の可能性を予測し評価するために、一連の深部生成観測モデルを利用することで、オフラインモデルトレーニングとオンラインプランニングを橋渡しする。
VTSは、異なる観測ノイズに対して堅牢であり、オンラインのモデルベースプランニングを利用するため、再トレーニングを必要とせずに、異なる報酬構造に適応できることを示す。
論文 参考訳(メタデータ) (2021-12-17T11:53:31Z) - N-Cloth: Predicting 3D Cloth Deformation with Mesh-Based Networks [69.94313958962165]
本稿では,3次元布の変形予測のためのメッシュに基づく新しい学習手法(N-Cloth)を提案する。
グラフ畳み込みを用いて、メッシュ空間の非線形性を低減するために、布とメッシュを潜在空間に変換する。
我々のアプローチは、SMPL人間、非SMPL人間、または剛体に対応する様々な物体で、最大100ドルの三角形とシーンを持つ複雑な布メッシュを扱うことができる。
論文 参考訳(メタデータ) (2021-12-13T03:13:11Z) - Learning Models as Functionals of Signed-Distance Fields for
Manipulation Planning [51.74463056899926]
本研究では,シーン内のオブジェクトを表す符号付き距離場の目的を学習する,最適化に基づく操作計画フレームワークを提案する。
オブジェクトを符号付き距離場として表現することは、ポイントクラウドや占有率の表現よりも高い精度で、様々なモデルの学習と表現を可能にする。
論文 参考訳(メタデータ) (2021-10-02T12:36:58Z) - NRST: Non-rigid Surface Tracking from Monocular Video [97.2743051142748]
モノクロRGBビデオからの非剛性表面追跡の効率的な手法を提案する。
ビデオとテンプレートメッシュが与えられた場合、我々のアルゴリズムはテンプレートをフレーム毎に非厳密に登録する。
以上の結果から, 汎用テクスチャ非剛体および単色織物に対する本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-07-06T06:06:45Z) - Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation [74.88956115580388]
プランニングは、イメージを埋め込んだ低次元の潜在状態空間で行われる。
我々のフレームワークは2つの主要なコンポーネントで構成されており、画像のシーケンスとして視覚的な計画を生成するビジュアル・フォレスト・モジュール(VFM)と、それら間のアクションを予測するアクション・プロポーザル・ネットワーク(APN)である。
論文 参考訳(メタデータ) (2020-03-19T18:43:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。