論文の概要: Learning Part Motion of Articulated Objects Using Spatially Continuous
Neural Implicit Representations
- arxiv url: http://arxiv.org/abs/2311.12407v1
- Date: Tue, 21 Nov 2023 07:54:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 01:44:19.135207
- Title: Learning Part Motion of Articulated Objects Using Spatially Continuous
Neural Implicit Representations
- Title(参考訳): 空間連続型ニューラルインプシット表現を用いた人工物体の学習
- Authors: Yushi Du, Ruihai Wu, Yan Shen, Hao Dong
- Abstract要約: 本稿では, 部分面上の点の変換行列を予測することにより, 物体の運動を乱す新しい枠組みを提案する。
提案手法は, 変形行列が空間内における様々な関節運動をモデル化できるという点で, 様々な関節運動に対して汎用的である。
- 参考スコア(独自算出の注目度): 8.130629735939895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Articulated objects (e.g., doors and drawers) exist everywhere in our life.
Different from rigid objects, articulated objects have higher degrees of
freedom and are rich in geometries, semantics, and part functions. Modeling
different kinds of parts and articulations with nerual networks plays an
essential role in articulated object understanding and manipulation, and will
further benefit 3D vision and robotics communities. To model articulated
objects, most previous works directly encode articulated objects into feature
representations, without specific designs for parts, articulations and part
motions. In this paper, we introduce a novel framework that explicitly
disentangles the part motion of articulated objects by predicting the
transformation matrix of points on the part surface, using spatially continuous
neural implicit representations to model the part motion smoothly in the space.
More importantly, while many methods could only model a certain kind of joint
motion (such as the revolution in the clockwise order), our proposed framework
is generic to different kinds of joint motions in that transformation matrix
can model diverse kinds of joint motions in the space. Quantitative and
qualitative results of experiments over diverse categories of articulated
objects demonstrate the effectiveness of our proposed framework.
- Abstract(参考訳): 美術品(ドアや引き出しなど)は、私たちの生活の至るところに存在している。
剛体とは違って、明瞭な物体は自由度が高く、幾何学、意味論、部分関数に富んでいる。
異なる種類の部品や音声を神経ネットワークでモデル化することは、物体の理解と操作において重要な役割を担い、3D視覚とロボットのコミュニティにさらに利益をもたらす。
調音オブジェクトをモデル化するために、それまでのほとんどの研究は、調音オブジェクトを直接特徴表現にエンコードした。
本稿では,空間的に連続したニューラル暗示表現を用いて,空間内の部分運動をスムーズにモデル化し,部分表面上の点の変換行列を予測することにより,明瞭な物体の部位運動を明示的に切り離す新しい枠組みを提案する。
さらに重要なことは、多くの手法が特定の関節運動(例えば時計回りの回転)しかモデル化できないのに対して、我々の提案する枠組みは、変換行列が空間内の様々な関節運動をモデル化できるような様々な関節運動に対して汎用的であることである。
様々なカテゴリーの調音物体を用いた実験の定量的・定性的結果から,提案手法の有効性を実証した。
関連論文リスト
- Unsupervised Dynamics Prediction with Object-Centric Kinematics [22.119612406160073]
本稿では,オブジェクト中心表現を利用した動的予測フレームワークであるOcK(Object-Centric Kinematics)を提案する。
OCKは、物体の位置、速度、加速度の低レベルな構造化状態で構成されている。
本モデルは,多種多様なオブジェクト属性と動的動きを特徴とする複雑なシーンにおけるオブジェクトと背景の扱いにおいて,優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-29T04:47:23Z) - REACTO: Reconstructing Articulated Objects from a Single Video [64.89760223391573]
関節の柔軟な変形を維持しつつ各部の剛性を向上する新しい変形モデルを提案する。
提案手法は, 従来よりも高忠実度な3D再構成を実現する上で, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T08:01:55Z) - Implicit Modeling of Non-rigid Objects with Cross-Category Signals [28.956412015920936]
MODIFは、複数のオブジェクトに対する変形フィールドとインスタンス固有の潜時符号を同時に学習する多目的深い暗黙関数である。
我々は,MODIFが各臓器の形状表現と他臓器との関係を良好に学習できることを示す。
論文 参考訳(メタデータ) (2023-12-15T22:34:17Z) - GAMMA: Generalizable Articulation Modeling and Manipulation for
Articulated Objects [53.965581080954905]
本稿では,GAMMA(Generalizable Articulation Modeling and Manipulating for Articulated Objects)の新たな枠組みを提案する。
GAMMAは,異なるカテゴリーの多種多様な調音オブジェクトから,調音モデルと手取りポーズの相違を学習する。
その結果, GAMMA はSOTA の調音モデルおよび操作アルゴリズムを, 目に見えない, 横断的な調音オブジェクトで著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-28T08:57:14Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Unsupervised Kinematic Motion Detection for Part-segmented 3D Shape
Collections [14.899075941080541]
本研究では,部分分割型3次元形状収集における調音運動の発見のための教師なしアプローチを提案する。
私たちのアプローチは、カテゴリクロージャと呼ばれる概念に基づいています。オブジェクトの部分の有効な記述は、オブジェクトを同じ意味圏に保つべきです。
我々は、PartNet-Mobilityデータセットから部品の動きを再発見するためにこれを用いてアプローチを評価した。
論文 参考訳(メタデータ) (2022-06-17T00:50:36Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Self-supervised Neural Articulated Shape and Appearance Models [18.99030452836038]
そこで本稿では, 物体の形状, 外観, 動きの表現を学習するための新しい手法を提案する。
我々の表現は、これらの意味的次元を独立的に制御できる形状、外観、調音符号を学習する。
論文 参考訳(メタデータ) (2022-05-17T17:50:47Z) - SPAMs: Structured Implicit Parametric Models [30.19414242608965]
本研究では,非剛体物体の動きを形状とポーズの部分的不整合表現に構造的に分解する変形可能なオブジェクト表現として,構造化単純パラメトリックモデル(SPAM)を学習する。
複雑な変形物体の動きの深度配列の復元と追跡において、我々の部分認識形状とポーズ理解が最先端のパフォーマンスに繋がることを示す実験を行った。
論文 参考訳(メタデータ) (2022-01-20T12:33:46Z) - Watch It Move: Unsupervised Discovery of 3D Joints for Re-Posing of
Articulated Objects [73.23249640099516]
複数視点からの移動を観察することで,これまで見えなかった物体の外観と構造の両方を学習する。
我々の洞察では、互いに相対的に動く隣り合う部分は関節で繋がらなければならない。
本手法は,四足歩行から単腕ロボット,人間に至るまで,さまざまな構造に対して有効であることを示す。
論文 参考訳(メタデータ) (2021-12-21T16:37:48Z) - Hierarchical Relational Inference [80.00374471991246]
本稿では,物体を局所的に独立に振る舞うが,よりグローバルに一括して振る舞う部分の階層としてモデル化する物理推論手法を提案する。
従来の手法とは異なり,本手法は生画像から直接教師なしの方法で学習する。
複数のレベルの抽象化を明確に区別し、合成ビデオと実世界のビデオのモデリングにおいて、強力なベースラインを超えて改善する。
論文 参考訳(メタデータ) (2020-10-07T20:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。