論文の概要: Structure from Action: Learning Interactions for Articulated Object 3D
Structure Discovery
- arxiv url: http://arxiv.org/abs/2207.08997v2
- Date: Fri, 7 Apr 2023 16:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 15:21:54.008398
- Title: Structure from Action: Learning Interactions for Articulated Object 3D
Structure Discovery
- Title(参考訳): 行動からの構造: 人工物体3次元構造発見のための相互作用の学習
- Authors: Neil Nie, Samir Yitzhak Gadre, Kiana Ehsani, Shuran Song
- Abstract要約: SfA(Structure from Action)は,目に見えない物体の3次元部分形状と関節パラメータを発見するためのフレームワークである。
情報的相互作用を選択することで、SfAは部品を発見し、閉じた引き出しの内側のような閉塞面を明らかにする。
経験的に、SfAは最先端のコンポーネントのパイプラインを25.4の3D IoUパーセンテージで上回っている。
- 参考スコア(独自算出の注目度): 18.96346371296251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Structure from Action (SfA), a framework to discover 3D part
geometry and joint parameters of unseen articulated objects via a sequence of
inferred interactions. Our key insight is that 3D interaction and perception
should be considered in conjunction to construct 3D articulated CAD models,
especially for categories not seen during training. By selecting informative
interactions, SfA discovers parts and reveals occluded surfaces, like the
inside of a closed drawer. By aggregating visual observations in 3D, SfA
accurately segments multiple parts, reconstructs part geometry, and infers all
joint parameters in a canonical coordinate frame. Our experiments demonstrate
that a SfA model trained in simulation can generalize to many unseen object
categories with diverse structures and to real-world objects. Empirically, SfA
outperforms a pipeline of state-of-the-art components by 25.4 3D IoU percentage
points on unseen categories, while matching already performant joint estimation
baselines.
- Abstract(参考訳): SfA(Structure from Action)は,不明瞭な物体の3次元部分形状と関節パラメータを推論された相互作用によって検出するフレームワークである。
我々の重要な洞察は、3次元の相互作用と知覚を協調して3次元のCADモデルを構築するべきであるということだ。
情報的相互作用を選択することで、SfAは部品を発見し、閉じた引き出しの内側のような閉塞面を明らかにする。
3Dで視覚的観察を集約することにより、SfAは複数の部分を正確に分割し、部分形状を再構成し、標準座標フレーム内の全ての関節パラメータを推測する。
シミュレーションで訓練されたsfaモデルが,多様な構造を持つ多数の未知のオブジェクトカテゴリと実世界のオブジェクトに一般化できることを実証した。
経験的に、SfAは最先端のコンポーネントのパイプラインを25.4の3D IoUパーセンテージで未確認のカテゴリで上回り、既に実行されている関節推定ベースラインをマッチングする。
関連論文リスト
- LASA: Instance Reconstruction from Real Scans using A Large-scale
Aligned Shape Annotation Dataset [17.530432165466507]
本稿では,新しいクロスモーダル形状再構成法とOccGOD法を提案する。
本手法は,インスタンスレベルのシーン再構成と3次元オブジェクト検出の両タスクにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T18:50:10Z) - Occupancy Planes for Single-view RGB-D Human Reconstruction [120.5818162569105]
暗黙的な機能を持つシングルビューRGB-Dヒト再構成は、しばしばポイント単位の分類として定式化される。
本稿では,カメラの視野フラストラムをスライスする平面上での占有率予測として,一視点のRGB-D人間の再構成を定式化できる占有面(OPlanes)表現を提案する。
論文 参考訳(メタデータ) (2022-08-04T17:59:56Z) - Neural Part Priors: Learning to Optimize Part-Based Object Completion in
RGB-D Scans [27.377128012679076]
本稿では,部分情報付き3次元形状の大規模合成データセットを活用してニューラル部品の先行学習を提案する。
実世界でスキャンされた3Dシーンをテスト時に適合させるために、学習した部分を最適化できます。
ScanNetデータセットの実験では、NPPは部分分解とオブジェクト補完において、技術の状態を大幅に上回っている。
論文 参考訳(メタデータ) (2022-03-17T15:05:44Z) - Watch It Move: Unsupervised Discovery of 3D Joints for Re-Posing of
Articulated Objects [73.23249640099516]
複数視点からの移動を観察することで,これまで見えなかった物体の外観と構造の両方を学習する。
我々の洞察では、互いに相対的に動く隣り合う部分は関節で繋がらなければならない。
本手法は,四足歩行から単腕ロボット,人間に至るまで,さまざまな構造に対して有効であることを示す。
論文 参考訳(メタデータ) (2021-12-21T16:37:48Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - VAT-Mart: Learning Visual Action Trajectory Proposals for Manipulating
3D ARTiculated Objects [19.296344218177534]
3次元の明瞭な物体の空間は、その無数の意味圏、多様な形状幾何学、複雑な部分関数に非常に豊富である。
それまでの作業は, 関節パラメータを推定し, 3次元関節物体の視覚的表現として機能する, 抽象運動学的な構造が主流であった。
本研究では,物体中心の動作可能な視覚的先入観を,知覚システムが運動構造推定よりも動作可能なガイダンスを出力する,新しい知覚-相互作用ハンドシェイキングポイントとして提案する。
論文 参考訳(メタデータ) (2021-06-28T07:47:31Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Generative 3D Part Assembly via Dynamic Graph Learning [34.108515032411695]
部品組み立ては、3Dコンピュータビジョンとロボット工学において難しいが重要な課題だ。
本稿では,反復グラフニューラルネットワークをバックボーンとして活用する,アセンブリ指向の動的グラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-14T04:26:42Z) - Fine-Grained 3D Shape Classification with Hierarchical Part-View
Attentions [70.0171362989609]
本稿では,FG3D-Netと呼ばれる新しい3次元形状分類手法を提案する。
詳細な3次元形状データセットに基づく結果から,本手法が他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-26T06:53:19Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。