論文の概要: Watch It Move: Unsupervised Discovery of 3D Joints for Re-Posing of
Articulated Objects
- arxiv url: http://arxiv.org/abs/2112.11347v1
- Date: Tue, 21 Dec 2021 16:37:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 17:59:59.575029
- Title: Watch It Move: Unsupervised Discovery of 3D Joints for Re-Posing of
Articulated Objects
- Title(参考訳): 3Dジョイントの発見を監督して、人工物を再発見する動画
- Authors: Atsuhiro Noguchi, Umar Iqbal, Jonathan Tremblay, Tatsuya Harada,
Orazio Gallo
- Abstract要約: 複数視点からの移動を観察することで,これまで見えなかった物体の外観と構造の両方を学習する。
我々の洞察では、互いに相対的に動く隣り合う部分は関節で繋がらなければならない。
本手法は,四足歩行から単腕ロボット,人間に至るまで,さまざまな構造に対して有効であることを示す。
- 参考スコア(独自算出の注目度): 73.23249640099516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rendering articulated objects while controlling their poses is critical to
applications such as virtual reality or animation for movies. Manipulating the
pose of an object, however, requires the understanding of its underlying
structure, that is, its joints and how they interact with each other.
Unfortunately, assuming the structure to be known, as existing methods do,
precludes the ability to work on new object categories. We propose to learn
both the appearance and the structure of previously unseen articulated objects
by observing them move from multiple views, with no additional supervision,
such as joints annotations, or information about the structure. Our insight is
that adjacent parts that move relative to each other must be connected by a
joint. To leverage this observation, we model the object parts in 3D as
ellipsoids, which allows us to identify joints. We combine this explicit
representation with an implicit one that compensates for the approximation
introduced. We show that our method works for different structures, from
quadrupeds, to single-arm robots, to humans.
- Abstract(参考訳): ポーズを制御しながら明瞭なオブジェクトをレンダリングすることは、仮想現実や映画のアニメーションといったアプリケーションにとって非常に重要である。
しかし、物体のポーズを操作するには、その基盤となる構造、すなわちその関節とそれらがどのように相互作用するかを理解する必要がある。
残念なことに、既存のメソッドのように構造が知られていると仮定すると、新しいオブジェクトカテゴリに取り組むことができない。
我々は,複数視点からの移動を観察し,関節アノテーションや構造に関する情報などの追加の監督を伴わずに,これまで見られなかった音節オブジェクトの外観と構造の両方を学ぶことを提案する。
我々の洞察では、互いに相対的に動く隣り合う部分は関節で繋がらなければならない。
この観察を活用するために、3次元の物体部分を楕円体としてモデル化し、関節を同定する。
この明示的な表現と、導入された近似を補う暗黙の表現を組み合わせる。
提案手法は,四足ロボットから片腕ロボット,人間など,さまざまな構造に対して有効であることを示す。
関連論文リスト
- Hierarchically Structured Neural Bones for Reconstructing Animatable Objects from Casual Videos [37.455535904703204]
カジュアルなビデオを用いて任意のオブジェクトの3Dモデルを作成し,操作するための新しいフレームワークを提案する。
我々の中核となる要素は、木構造骨で物体の動きをキャプチャする新しい変形階層モデルである。
筆者らのフレームワークは,(1) 任意のオブジェクトのアニマタブルな3Dモデルを得ることができ,(2) ユーザは最小限のコストで直感的に3Dモデルを操作でき,(3) ユーザーは必要に応じてインタラクティブに制御ポイントを追加・削除することができる。
論文 参考訳(メタデータ) (2024-08-01T07:42:45Z) - HOLD: Category-agnostic 3D Reconstruction of Interacting Hands and
Objects from Video [70.11702620562889]
HOLD - 単分子インタラクションビデオから手とオブジェクトを共同で再構成する最初のカテゴリーに依存しない方法。
我々は,3次元手と物体を2次元画像から切り離すことができる構成的明瞭な暗黙モデルを開発した。
本手法は,3次元手オブジェクトアノテーションに頼らず,組込みと組込みの両面において,完全教師付きベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-30T10:50:35Z) - CAMM: Building Category-Agnostic and Animatable 3D Models from Monocular
Videos [3.356334042188362]
そこで本研究では,任意の対象に対してアニマタブルなキネマティックチェインを学習する手法を提案する。
本手法は,多種多様な対象カテゴリーにおける最先端の3次元表面再構成法と同等である。
論文 参考訳(メタデータ) (2023-04-14T06:07:54Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Unsupervised Kinematic Motion Detection for Part-segmented 3D Shape
Collections [14.899075941080541]
本研究では,部分分割型3次元形状収集における調音運動の発見のための教師なしアプローチを提案する。
私たちのアプローチは、カテゴリクロージャと呼ばれる概念に基づいています。オブジェクトの部分の有効な記述は、オブジェクトを同じ意味圏に保つべきです。
我々は、PartNet-Mobilityデータセットから部品の動きを再発見するためにこれを用いてアプローチを評価した。
論文 参考訳(メタデータ) (2022-06-17T00:50:36Z) - ARCTIC: A Dataset for Dexterous Bimanual Hand-Object Manipulation [68.80339307258835]
ARCTICは、オブジェクトを巧みに操作する両手のデータセットである。
正確な3Dハンドメッシュと、詳細でダイナミックな接触情報を組み合わせた2.1Mビデオフレームを含んでいる。
論文 参考訳(メタデータ) (2022-04-28T17:23:59Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。