論文の概要: Learning Visible Connectivity Dynamics for Cloth Smoothing
- arxiv url: http://arxiv.org/abs/2105.10389v1
- Date: Fri, 21 May 2021 15:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:10:28.185761
- Title: Learning Visible Connectivity Dynamics for Cloth Smoothing
- Title(参考訳): 布の平滑化のための可視接続ダイナミクスの学習
- Authors: Xingyu Lin, Yufei Wang, David Held
- Abstract要約: 本稿では,部分点雲観測から粒子動力学モデルを学ぶことを提案する。
部分観測可能性の課題を克服するため, 基盤となる布網上にどの可視点が接続されているのかを推定する。
提案手法は,従来のモデルベースおよびモデルフリー強化学習法をシミュレーションで大幅に上回っていることを示す。
- 参考スコア(独自算出の注目度): 17.24004979796887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotic manipulation of cloth remains challenging for robotics due to the
complex dynamics of the cloth, lack of a low-dimensional state representation,
and self-occlusions. In contrast to previous model-based approaches that learn
a pixel-based dynamics model or a compressed latent vector dynamics, we propose
to learn a particle-based dynamics model from a partial point cloud
observation. To overcome the challenges of partial observability, we infer
which visible points are connected on the underlying cloth mesh. We then learn
a dynamics model over this visible connectivity graph. Compared to previous
learning-based approaches, our model poses strong inductive bias with its
particle based representation for learning the underlying cloth physics; it is
invariant to visual features; and the predictions can be more easily
visualized. We show that our method greatly outperforms previous
state-of-the-art model-based and model-free reinforcement learning methods in
simulation. Furthermore, we demonstrate zero-shot sim-to-real transfer where we
deploy the model trained in simulation on a Franka arm and show that the model
can successfully smooth different types of cloth from crumpled configurations.
Videos can be found on our project website.
- Abstract(参考訳): 布のロボット操作は、布の複雑なダイナミクス、低次元の状態表現の欠如、そして自己排他性のため、ロボット工学にとって依然として困難である。
画素ベースダイナミクスモデルや圧縮潜在ベクトルダイナミクスを学習する従来のモデルベースアプローチとは対照的に,粒子ベースのダイナミクスモデルを部分点雲観測から学ぶことを提案する。
部分観測可能性の課題を克服するため,布メッシュ上にどの可視点が接続されているのかを推定する。
次に、この可視接続グラフ上で動的モデルを学びます。
従来の学習に基づくアプローチと比較して,本モデルは基礎となる布の物理を学習するための粒子ベースの表現と強い帰納バイアスを呈し,視覚的特徴に不変であり,予測をより容易に可視化することができる。
提案手法は,従来のモデルベースおよびモデルフリー強化学習法をシミュレーションで大幅に上回ることを示す。
さらに,シミュレーションで訓練されたモデルをフランカアームに展開するゼロショットsim-to-realトランスファーを実演し,クランプされた構成から異なる種類の布を滑らかにできることを示す。
ビデオはプロジェクトのWebサイトにある。
関連論文リスト
- AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Exploring Model Transferability through the Lens of Potential Energy [78.60851825944212]
トランスファーラーニングは、事前訓練されたディープラーニングモデルが広く利用可能であることから、コンピュータビジョンタスクにおいて重要になっている。
既存のトレーニング済みモデルの転送可能性の測定方法は、符号化された静的特徴とタスクラベルの間の統計的相関に依存する。
我々はこれらの課題に対処するために,PEDという物理に着想を得たアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:15:57Z) - Dynamic Point Fields [30.029872787758705]
本稿では,明示的な点ベースグラフィックスの表現的利点と暗黙的な変形ネットワークを組み合わせた動的点場モデルを提案する。
我々は,その表現力,学習効率,および配布外小説のポーズに対する堅牢性の観点から,我々の動的点場フレームワークの利点を示す。
論文 参考訳(メタデータ) (2023-04-05T17:52:37Z) - Robust Robotic Control from Pixels using Contrastive Recurrent
State-Space Models [8.22669535053079]
本研究では、画像などの高次元観測空間上で、制約のない環境で世界モデルを学習する方法を研究する。
困難の原因の1つは、無関係ではあるが、モデルによる背景の混乱の存在である。
我々は、次の観測を対照的に予測する反復潜時力学モデルを学ぶ。
このシンプルなモデルは、同時にカメラ、背景、色を逸脱しても驚くほど頑丈なロボット制御に繋がる。
論文 参考訳(メタデータ) (2021-12-02T12:15:25Z) - Which priors matter? Benchmarking models for learning latent dynamics [70.88999063639146]
古典力学の先行概念を機械学習モデルに統合する手法が提案されている。
これらのモデルの現在の機能について、精査する。
連続的および時間的可逆的ダイナミクスの使用は、すべてのクラスのモデルに恩恵をもたらす。
論文 参考訳(メタデータ) (2021-11-09T23:48:21Z) - Learning Dynamics Models for Model Predictive Agents [28.063080817465934]
モデルに基づく強化学習は、データからテクトダイナミックスモデルを学習し、そのモデルを使用して振る舞いを最適化する。
本稿では, 動的モデル学習における設計選択の役割を, 基礎構造モデルとの比較により明らかにすることを目的としている。
論文 参考訳(メタデータ) (2021-09-29T09:50:25Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Model-Based Inverse Reinforcement Learning from Visual Demonstrations [20.23223474119314]
本稿では,視覚的人間の実演のみを与えられた場合のコスト関数を学習する,勾配に基づく逆強化学習フレームワークを提案する。
学習したコスト関数は、視覚モデル予測制御によって実証された振る舞いを再現するために使用される。
2つの基本的なオブジェクト操作タスクでハードウェアのフレームワークを評価する。
論文 参考訳(メタデータ) (2020-10-18T17:07:53Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。