論文の概要: SculptBot: Pre-Trained Models for 3D Deformable Object Manipulation
- arxiv url: http://arxiv.org/abs/2309.08728v1
- Date: Fri, 15 Sep 2023 19:27:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 19:43:28.733948
- Title: SculptBot: Pre-Trained Models for 3D Deformable Object Manipulation
- Title(参考訳): SculptBot:3次元変形可能なオブジェクト操作のための事前学習モデル
- Authors: Alison Bartsch, Charlotte Avra, Amir Barati Farimani
- Abstract要約: 粘土やパン生地のモデリングなどの塑性挙動を示す材料は, 応力下で永久に変形し, 常に形状が変化するため, 状態表現は困難である。
本研究では,点雲を状態表現として利用し,事前学習した点雲再構成変換器を用いて潜時力学モデルを学習し,把持動作による材料変形を予測するシステムを提案する。
- 参考スコア(独自算出の注目度): 8.517406772939292
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deformable object manipulation presents a unique set of challenges in robotic
manipulation by exhibiting high degrees of freedom and severe self-occlusion.
State representation for materials that exhibit plastic behavior, like modeling
clay or bread dough, is also difficult because they permanently deform under
stress and are constantly changing shape. In this work, we investigate each of
these challenges using the task of robotic sculpting with a parallel gripper.
We propose a system that uses point clouds as the state representation and
leverages pre-trained point cloud reconstruction Transformer to learn a latent
dynamics model to predict material deformations given a grasp action. We design
a novel action sampling algorithm that reasons about geometrical differences
between point clouds to further improve the efficiency of model-based planners.
All data and experiments are conducted entirely in the real world. Our
experiments show the proposed system is able to successfully capture the
dynamics of clay, and is able to create a variety of simple shapes.
- Abstract(参考訳): 変形可能な物体操作は、高い自由度と厳しい自己排他性を示すことによって、ロボット操作において独特の課題を呈する。
粘土やパン生地のモデリングなどの塑性挙動を示す材料は、応力下で永久に変形し、常に形状が変化するため、状態表現も困難である。
本研究では,ロボット彫刻を並列グリップで行うことで,これらの課題について検討する。
本研究では,点雲を状態表現として利用し,事前学習した点雲再構成変換器を用いて潜時力学モデルを学習し,把持動作による材料変形を予測するシステムを提案する。
我々は,モデルベースプランナの効率をさらに向上するために,点雲間の幾何学的差異を考慮に入れた新しいアクションサンプリングアルゴリズムを設計する。
すべてのデータと実験は、すべて現実世界で行われる。
実験により, 提案手法は粘土の力学をうまく捉えることができ, 様々な形状を生成できることを示した。
関連論文リスト
- RoboPack: Learning Tactile-Informed Dynamics Models for Dense Packing [38.97168020979433]
本稿では, 視覚と触覚を組み合わせ, 触覚インフォームド・ダイナミックスモデルを学習することでロボット操作を実現するアプローチを提案する。
提案するフレームワークであるRoboPackは、オブジェクト状態を推定するために、リカレントグラフニューラルネットワークを使用している。
我々は,非包括的操作と密包装作業に対するソフトバブル触覚センサを備えた実ロボットへのアプローチを実証する。
論文 参考訳(メタデータ) (2024-07-01T16:08:37Z) - REACTO: Reconstructing Articulated Objects from a Single Video [64.89760223391573]
関節の柔軟な変形を維持しつつ各部の剛性を向上する新しい変形モデルを提案する。
提案手法は, 従来よりも高忠実度な3D再構成を実現する上で, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T08:01:55Z) - DexDeform: Dexterous Deformable Object Manipulation with Human
Demonstrations and Differentiable Physics [97.75188532559952]
人間の実演から巧妙な操作スキルを抽象化する原理的枠組みを提案する。
次に、イマジネーションにおけるアクション抽象化を計画する上で、デモを使ってスキルモデルをトレーニングします。
提案手法の有効性を評価するために,6つの難解な変形可能なオブジェクト操作タスクの組を導入する。
論文 参考訳(メタデータ) (2023-03-27T17:59:49Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Learning Visual Shape Control of Novel 3D Deformable Objects from
Partial-View Point Clouds [7.1659268120093635]
弾性、3次元変形可能な物体の解析モデルは、物体の形状を決定する際に存在する潜在的無限の自由度を記述するために、多数のパラメータを必要とする。
従来の3D形状制御の試みは、オブジェクト形状を表現するために手作りの特徴に依存しており、オブジェクト固有の制御モデルの訓練が必要である。
DeformerNetニューラルネットワークアーキテクチャは、操作対象の部分的な視点クラウドと目標形状の点クラウドで動作し、オブジェクト形状の低次元表現を学習する。
論文 参考訳(メタデータ) (2021-10-10T02:34:57Z) - gradSim: Differentiable simulation for system identification and
visuomotor control [66.37288629125996]
本稿では,微分可能マルチフィジカルシミュレーションと微分可能レンダリングを活用し,3次元監督への依存を克服するフレームワークであるgradsimを提案する。
当社の統合グラフは、状態ベースの(3D)監督に頼ることなく、挑戦的なバイスモメータ制御タスクで学習を可能にします。
論文 参考訳(メタデータ) (2021-04-06T16:32:01Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。