論文の概要: Unsupervised Kinematic Motion Detection for Part-segmented 3D Shape
Collections
- arxiv url: http://arxiv.org/abs/2206.08497v1
- Date: Fri, 17 Jun 2022 00:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 15:15:56.669348
- Title: Unsupervised Kinematic Motion Detection for Part-segmented 3D Shape
Collections
- Title(参考訳): 部分分割3次元形状コレクションの教師なし運動検出
- Authors: Xianghao Xu, Yifan Ruan, Srinath Sridhar, Daniel Ritchie
- Abstract要約: 本研究では,部分分割型3次元形状収集における調音運動の発見のための教師なしアプローチを提案する。
私たちのアプローチは、カテゴリクロージャと呼ばれる概念に基づいています。オブジェクトの部分の有効な記述は、オブジェクトを同じ意味圏に保つべきです。
我々は、PartNet-Mobilityデータセットから部品の動きを再発見するためにこれを用いてアプローチを評価した。
- 参考スコア(独自算出の注目度): 14.899075941080541
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D models of manufactured objects are important for populating virtual worlds
and for synthetic data generation for vision and robotics. To be most useful,
such objects should be articulated: their parts should move when interacted
with. While articulated object datasets exist, creating them is
labor-intensive. Learning-based prediction of part motions can help, but all
existing methods require annotated training data. In this paper, we present an
unsupervised approach for discovering articulated motions in a part-segmented
3D shape collection. Our approach is based on a concept we call category
closure: any valid articulation of an object's parts should keep the object in
the same semantic category (e.g. a chair stays a chair). We operationalize this
concept with an algorithm that optimizes a shape's part motion parameters such
that it can transform into other shapes in the collection. We evaluate our
approach by using it to re-discover part motions from the PartNet-Mobility
dataset. For almost all shape categories, our method's predicted motion
parameters have low error with respect to ground truth annotations,
outperforming two supervised motion prediction methods.
- Abstract(参考訳): 人工物の3dモデルは、仮想世界や視覚とロボティクスのための合成データ生成のために重要である。
最も有用であるためには、そのようなオブジェクトを明瞭にする必要がある。
有声オブジェクトデータセットは存在するが、それらの作成は労働集約的である。
学習に基づく部分動作の予測は役立つが、既存の方法はすべて注釈付きトレーニングデータを必要とする。
本稿では,3次元形状群における関節運動を教師なしで発見する手法を提案する。
我々のアプローチは、私たちが圏閉包と呼ぶ概念に基づいている:オブジェクトの部分の有効な記述は、オブジェクトを同じ意味圏(例えば、椅子が椅子に残る)に保たなければならない。
我々は、この概念を、形状の部分運動パラメータを最適化して、コレクション内の他の形状に変換するアルゴリズムで運用する。
partnet-mobilityデータセットから部分動作を再発見するために,このアプローチを評価した。
ほぼすべての形状のカテゴリーにおいて,提案手法の予測動作パラメータは,2つの教師あり動作予測法よりも低い誤差を有する。
関連論文リスト
- CAGE: Controllable Articulation GEneration [14.002289666443529]
分割拡散法を用いて, 部品形状, 接続性, 動きの相互作用を利用する。
本手法では,オブジェクトカテゴリラベルと部分接続グラフを入力として,オブジェクトの形状と運動パラメータを生成する。
実験の結果,本手法は音声オブジェクト生成における最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-15T07:04:27Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - PARIS: Part-level Reconstruction and Motion Analysis for Articulated
Objects [17.191728053966873]
本研究は,調音対象に対する同時部分レベル再構成と動きパラメータ推定の課題に対処する。
パートレベルの暗黙的形状と外観モデルを学ぶ自己教師型エンドツーエンドアーキテクチャPARISを提案する。
提案手法は,オブジェクトカテゴリ全体にわたって最適化され,入力として3次元点雲が与えられるベースラインや先行作業よりも優れる。
論文 参考訳(メタデータ) (2023-08-14T18:18:00Z) - Building Rearticulable Models for Arbitrary 3D Objects from 4D Point
Clouds [28.330364666426345]
任意の数の部品を含む日常的な人工物に対して再計算可能なモデルを構築する。
本手法では, 異なる対象部位, どの部位が他の部位に接続されているか, および各部位を接続する接合部の性質を同定する。
論文 参考訳(メタデータ) (2023-06-01T17:59:21Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。