論文の概要: EDO-Net: Learning Elastic Properties of Deformable Objects from Graph
Dynamics
- arxiv url: http://arxiv.org/abs/2209.08996v3
- Date: Wed, 7 Feb 2024 07:14:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 21:13:56.236258
- Title: EDO-Net: Learning Elastic Properties of Deformable Objects from Graph
Dynamics
- Title(参考訳): EDO-Net: グラフダイナミクスによる変形可能な物体の弾性特性の学習
- Authors: Alberta Longhini, Marco Moletta, Alfredo Reichlin, Michael C. Welle,
David Held, Zackory Erickson, and Danica Kragic
- Abstract要約: 本研究では、未知の物理特性に一般化する変形可能な物体のグラフ力学を学習する問題について検討する。
EDO-Netは,弾性特性の異なる様々なサンプルに対して学習したグラフ力学のモデルである。
- 参考スコア(独自算出の注目度): 24.33743287768859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of learning graph dynamics of deformable objects that
generalizes to unknown physical properties. Our key insight is to leverage a
latent representation of elastic physical properties of cloth-like deformable
objects that can be extracted, for example, from a pulling interaction. In this
paper we propose EDO-Net (Elastic Deformable Object - Net), a model of graph
dynamics trained on a large variety of samples with different elastic
properties that does not rely on ground-truth labels of the properties. EDO-Net
jointly learns an adaptation module, and a forward-dynamics module. The former
is responsible for extracting a latent representation of the physical
properties of the object, while the latter leverages the latent representation
to predict future states of cloth-like objects represented as graphs. We
evaluate EDO-Net both in simulation and real world, assessing its capabilities
of: 1) generalizing to unknown physical properties, 2) transferring the learned
representation to new downstream tasks.
- Abstract(参考訳): 未知の物理特性に一般化する変形可能な物体のグラフ力学の学習問題について検討する。
私たちの重要な洞察は、例えば引っ張る相互作用から抽出できる布のような変形可能な物体の弾性的物理的性質の潜在表現を活用することです。
本稿では,弾性特性の異なる多種多様なサンプルに対して学習したグラフ力学モデルであるEDO-Net(Elastic Deformable Object - Net)を提案する。
EDO-Netは適応モジュールと前方力学モジュールを共同で学習する。
前者はオブジェクトの物理的特性の潜在表現を抽出し、後者は潜在表現を利用してグラフとして表現される布のようなオブジェクトの将来の状態を予測する。
シミュレーションと実世界の両方でEDO-Netを評価し,その能力を評価する。
1)未知の物理的性質を一般化すること。
2)学習した表現を新しい下流タスクに転送する。
関連論文リスト
- Compositional Physical Reasoning of Objects and Events from Videos [122.6862357340911]
本稿では,物体の動きや相互作用から隠れた物理的特性を推定するという課題に対処する。
我々は、ComPhyの最先端ビデオ推論モデルを評価し、これらの隠れプロパティをキャプチャする限られた能力を明らかにする。
また,視覚的および隠れた物理的特性を学習し,原因を解明する,新しいニューロシンボリックな枠組みであるPhysical Concept Reasoner(PCR)を提案する。
論文 参考訳(メタデータ) (2024-08-02T15:19:55Z) - AdaptiGraph: Material-Adaptive Graph-Based Neural Dynamics for Robotic Manipulation [30.367498271886866]
本稿では,学習に基づく動的モデリング手法であるAdaptiGraphを紹介する。
ロボットは様々な難易度の高い変形可能な素材を予測し、適応し、制御することができる。
実世界の変形可能な物体の多種多様な集合を含む予測・操作タスクについて,予測精度とタスク習熟度に優れることを示す。
論文 参考訳(メタデータ) (2024-07-10T17:57:04Z) - Physics3D: Learning Physical Properties of 3D Gaussians via Video Diffusion [35.71595369663293]
ビデオ拡散モデルを用いて3Dオブジェクトの様々な物理的特性を学習する新しい手法である textbfPhysics3D を提案する。
本手法では,粘弾性材料モデルに基づく高一般化物理シミュレーションシステムを設計する。
弾性材料とプラスチック材料の両方を用いて, 本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-06T17:59:47Z) - Physion++: Evaluating Physical Scene Understanding that Requires Online
Inference of Different Physical Properties [100.19685489335828]
この研究は、人工システムにおける視覚的身体的予測を厳格に評価する新しいデータセットとベンチマークであるPhysylon++を提案する。
正確な予測が質量、摩擦、弾性、変形性などの特性の推定に依存するシナリオをテストする。
我々は,様々なレベルの学習と組込み知識にまたがる最先端予測モデルの性能を評価し,その性能を人間の予測と比較した。
論文 参考訳(メタデータ) (2023-06-27T17:59:33Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Object-based active inference [0.0]
本稿では,最近のディープオブジェクトベースニューラルネットワークを用いたオブジェクトベースアクティブ推論(OBAI)を紹介する。
OBAIは、異なる変分信念を持つ異なるオブジェクトを表し、対応するオブジェクトスロットに入力をルーティングするために選択的注意を使用する。
OBAIは、映像入力からアクション摂動オブジェクトを正しく分割し、これらのオブジェクトを任意の目標に向けて操作することを学ぶ。
論文 参考訳(メタデータ) (2022-09-02T20:08:43Z) - ComPhy: Compositional Physical Reasoning of Objects and Events from
Videos [113.2646904729092]
目に見える性質と隠れた性質の間の構成性は、物理的な世界から推論するAIモデルに固有の課題をもたらす。
ビデオ推論に関する既存の研究は、主に物体の外観、動き、接触相互作用などの視覚的に観察可能な要素に焦点を当てている。
本稿では,視覚知覚,物理特性学習,動的予測,記号実行を組み合わせた,構成物理学学習(CPL)と呼ばれるオラクルニューラルシンボリックフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-02T17:59:13Z) - OMAD: Object Model with Articulated Deformations for Pose Estimation and
Retrieval [46.813224754603866]
本稿では,調音対象を明示的にモデル化するために,Articulated deformations (OMAD) を用いたオブジェクトモデルというカテゴリ固有表現を提案する。
対象の形状と結合状態の完全な表現により,カテゴリレベルのオブジェクトポーズ推定や明瞭なオブジェクト検索など,いくつかの課題に対処できる。
論文 参考訳(メタデータ) (2021-12-14T12:45:49Z) - HyperDynamics: Meta-Learning Object and Agent Dynamics with
Hypernetworks [18.892883695539002]
HyperDynamicsは、ニューラルネットワークモデルのパラメータを生成する動的メタ学習フレームワークである。
高次元の視覚観察でダイナミクスを学習することで、環境の変化に適応する既存のモデルを上回る性能を発揮します。
本手法は,個別に訓練された専門家の演奏に合致すると同時に,テスト時に未知の環境変動に対して十分に一般化できることを示す。
論文 参考訳(メタデータ) (2021-03-17T04:48:43Z) - Dynamic Language Binding in Relational Visual Reasoning [67.85579756590478]
言語結合型オブジェクトグラフネットワークは,視覚領域とテキスト領域の両方にわたる動的関係構造を持つ最初のニューラル推論手法である。
本手法は,複数の対象関係が関係する高度な質問応答タスクにおいて,他の手法よりも優れる。
論文 参考訳(メタデータ) (2020-04-30T06:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。