論文の概要: EDO-Net: Learning Elastic Properties of Deformable Objects from Graph
Dynamics
- arxiv url: http://arxiv.org/abs/2209.08996v1
- Date: Mon, 19 Sep 2022 13:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:50:07.230638
- Title: EDO-Net: Learning Elastic Properties of Deformable Objects from Graph
Dynamics
- Title(参考訳): EDO-Net: グラフダイナミクスによる変形可能な物体の弾性特性の学習
- Authors: Alberta Longhini, Marco Moletta, Alfredo Reichlin, Michael C. Welle,
David Held, Zackory Erickson, and Danica Kragic
- Abstract要約: 未知の物理特性に一般化する変形可能な物体のグラフ力学の学習問題について検討する。
本研究では,弾性特性の異なるサンプルの自己教師型モデルであるEDO-Netを提案する。
- 参考スコア(独自算出の注目度): 19.170047384323045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of learning graph dynamics of deformable objects which
generalize to unknown physical properties. In particular, we leverage a latent
representation of elastic physical properties of cloth-like deformable objects
which we explore through a pulling interaction. We propose EDO-Net (Elastic
Deformable Object - Net), a model trained in a self-supervised fashion on a
large variety of samples with different elastic properties. EDO-Net jointly
learns an adaptation module, responsible for extracting a latent representation
of the physical properties of the object, and a forward-dynamics module, which
leverages the latent representation to predict future states of cloth-like
objects, represented as graphs. We evaluate EDO-Net both in simulation and real
world, assessing its capabilities of: 1) generalizing to unknown physical
properties of cloth-like deformable objects, 2) transferring the learned
representation to new downstream tasks.
- Abstract(参考訳): 未知の物理特性に一般化する変形可能な物体のグラフ力学の学習問題について検討する。
特に, 布のような変形可能な物体の弾性的物性の潜在的表現を利用して, 引抜き相互作用を探索する。
EDO-Net(Elastic Deformable Object - Net)は、弾性特性の異なる多種多様なサンプルに対して、自己教師型で訓練されたモデルである。
江戸ネットは、オブジェクトの物理的性質の潜在表現を抽出するための適応モジュールと、潜在表現を利用してグラフとして表される布のようなオブジェクトの将来状態を予測するフォワードダイナミクスモジュールを共同で学習する。
シミュレーションと実世界の両方でEDO-Netを評価し,その能力を評価する。
1)布のような変形可能な物体の未知の物性を一般化すること。
2)学習した表現を新しい下流タスクに転送する。
関連論文リスト
- Physion++: Evaluating Physical Scene Understanding that Requires Online
Inference of Different Physical Properties [100.19685489335828]
この研究は、人工システムにおける視覚的身体的予測を厳格に評価する新しいデータセットとベンチマークであるPhysylon++を提案する。
正確な予測が質量、摩擦、弾性、変形性などの特性の推定に依存するシナリオをテストする。
我々は,様々なレベルの学習と組込み知識にまたがる最先端予測モデルの性能を評価し,その性能を人間の予測と比較した。
論文 参考訳(メタデータ) (2023-06-27T17:59:33Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Object-based active inference [0.0]
本稿では,最近のディープオブジェクトベースニューラルネットワークを用いたオブジェクトベースアクティブ推論(OBAI)を紹介する。
OBAIは、異なる変分信念を持つ異なるオブジェクトを表し、対応するオブジェクトスロットに入力をルーティングするために選択的注意を使用する。
OBAIは、映像入力からアクション摂動オブジェクトを正しく分割し、これらのオブジェクトを任意の目標に向けて操作することを学ぶ。
論文 参考訳(メタデータ) (2022-09-02T20:08:43Z) - ComPhy: Compositional Physical Reasoning of Objects and Events from
Videos [113.2646904729092]
目に見える性質と隠れた性質の間の構成性は、物理的な世界から推論するAIモデルに固有の課題をもたらす。
ビデオ推論に関する既存の研究は、主に物体の外観、動き、接触相互作用などの視覚的に観察可能な要素に焦点を当てている。
本稿では,視覚知覚,物理特性学習,動的予測,記号実行を組み合わせた,構成物理学学習(CPL)と呼ばれるオラクルニューラルシンボリックフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-02T17:59:13Z) - OMAD: Object Model with Articulated Deformations for Pose Estimation and
Retrieval [46.813224754603866]
本稿では,調音対象を明示的にモデル化するために,Articulated deformations (OMAD) を用いたオブジェクトモデルというカテゴリ固有表現を提案する。
対象の形状と結合状態の完全な表現により,カテゴリレベルのオブジェクトポーズ推定や明瞭なオブジェクト検索など,いくつかの課題に対処できる。
論文 参考訳(メタデータ) (2021-12-14T12:45:49Z) - Flexible Networks for Learning Physical Dynamics of Deformable Objects [2.567499374977917]
本稿では, 粒子ベース表現を用いた変形可能な物体の将来の状態を推定するために, 時間的ポイントネット (TP-Net) というモデルを提案する。
TP-Netは、並列に設定された各入力ポイントからグローバルな特徴を抽出する共有特徴抽出器と、これらの特徴を集約して将来の予測を行う予測ネットワークから構成される。
実験により,我々のモデルは,リアルタイム予測速度で,合成データセットと実世界のデータセットの両方で最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2021-12-07T14:34:52Z) - HyperDynamics: Meta-Learning Object and Agent Dynamics with
Hypernetworks [18.892883695539002]
HyperDynamicsは、ニューラルネットワークモデルのパラメータを生成する動的メタ学習フレームワークである。
高次元の視覚観察でダイナミクスを学習することで、環境の変化に適応する既存のモデルを上回る性能を発揮します。
本手法は,個別に訓練された専門家の演奏に合致すると同時に,テスト時に未知の環境変動に対して十分に一般化できることを示す。
論文 参考訳(メタデータ) (2021-03-17T04:48:43Z) - Augmenting Physical Models with Deep Networks for Complex Dynamics
Forecasting [34.61959169976758]
APHYNITYは、深層データ駆動モデルを持つ微分方程式によって記述された不完全な物理力学を増大させる原理的なアプローチである。
これは、動的を2つのコンポーネントに分解することで構成されます。物理コンポーネントは、事前の知識を持つダイナミクスを、データ駆動コンポーネントは、物理モデルのエラーを説明します。
論文 参考訳(メタデータ) (2020-10-09T09:31:03Z) - Dynamic Language Binding in Relational Visual Reasoning [67.85579756590478]
言語結合型オブジェクトグラフネットワークは,視覚領域とテキスト領域の両方にわたる動的関係構造を持つ最初のニューラル推論手法である。
本手法は,複数の対象関係が関係する高度な質問応答タスクにおいて,他の手法よりも優れる。
論文 参考訳(メタデータ) (2020-04-30T06:26:20Z) - Visual Grounding of Learned Physical Models [66.04898704928517]
人間は、物体の物理的特性を直感的に認識し、複雑な相互作用に従事している場合でも、その動きを予測する。
我々は、物理を同時に推論し、視覚と力学の先行に基づく将来の予測を行うニューラルモデルを提案する。
実験により、我々のモデルはいくつかの観測範囲内で物理的特性を推測できることが示され、モデルが目に見えないシナリオに迅速に適応し、将来正確な予測を行うことができる。
論文 参考訳(メタデータ) (2020-04-28T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。