論文の概要: Generative 3D Part Assembly via Dynamic Graph Learning
- arxiv url: http://arxiv.org/abs/2006.07793v3
- Date: Wed, 23 Dec 2020 05:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 13:05:33.915097
- Title: Generative 3D Part Assembly via Dynamic Graph Learning
- Title(参考訳): 動的グラフ学習による生成3次元部品の組み立て
- Authors: Jialei Huang, Guanqi Zhan, Qingnan Fan, Kaichun Mo, Lin Shao, Baoquan
Chen, Leonidas Guibas, Hao Dong
- Abstract要約: 部品組み立ては、3Dコンピュータビジョンとロボット工学において難しいが重要な課題だ。
本稿では,反復グラフニューラルネットワークをバックボーンとして活用する,アセンブリ指向の動的グラフ学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 34.108515032411695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous part assembly is a challenging yet crucial task in 3D computer
vision and robotics. Analogous to buying an IKEA furniture, given a set of 3D
parts that can assemble a single shape, an intelligent agent needs to perceive
the 3D part geometry, reason to propose pose estimations for the input parts,
and finally call robotic planning and control routines for actuation. In this
paper, we focus on the pose estimation subproblem from the vision side
involving geometric and relational reasoning over the input part geometry.
Essentially, the task of generative 3D part assembly is to predict a 6-DoF part
pose, including a rigid rotation and translation, for each input part that
assembles a single 3D shape as the final output. To tackle this problem, we
propose an assembly-oriented dynamic graph learning framework that leverages an
iterative graph neural network as a backbone. It explicitly conducts sequential
part assembly refinements in a coarse-to-fine manner, exploits a pair of part
relation reasoning module and part aggregation module for dynamically adjusting
both part features and their relations in the part graph. We conduct extensive
experiments and quantitative comparisons to three strong baseline methods,
demonstrating the effectiveness of the proposed approach.
- Abstract(参考訳): 自律的な部品組み立ては、3Dコンピュータビジョンとロボット工学において難しいが重要な課題である。
IKEA家具の購入と異なり、単一の形状を組み立てることができる3Dパーツのセットが与えられた場合、インテリジェントエージェントは3Dパーツの幾何学を知覚し、入力部品のポーズ推定を提案し、最後にロボット計画と動作制御ルーチンを呼び出す必要がある。
本稿では,入力部形状に対する幾何学的および関係的推論を含む視覚面からのポーズ推定サブプロブレムに着目した。
基本的に、生成3D部アセンブリのタスクは、最終出力として単一の3D形状を組み立てる各入力部に対して、剛性回転及び変換を含む6-DoF部ポーズを予測することである。
そこで本研究では,反復型グラフニューラルネットワークをバックボーンとして利用するアセンブリ指向動的グラフ学習フレームワークを提案する。
一対の部品関係推論モジュールと部分集合モジュールを利用して、部分特徴と部分グラフにおけるそれらの関係を動的に調整する。
提案手法の有効性を実証し,3つの強力なベースライン法との比較を行った。
関連論文リスト
- Reasoning3D -- Grounding and Reasoning in 3D: Fine-Grained Zero-Shot Open-Vocabulary 3D Reasoning Part Segmentation via Large Vision-Language Models [20.277479473218513]
オブジェクトの検索とローカライズのためのZero-Shot 3D Reasoningを提案する。
複雑なコマンドを理解し実行するためのシンプルなベースラインメソッドReasoning3Dを設計する。
Reasoning3Dは、暗黙のテキストクエリに基づいて、3Dオブジェクトの一部を効果的にローカライズし、ハイライトすることができることを示す。
論文 参考訳(メタデータ) (2024-05-29T17:56:07Z) - Neural Assembler: Learning to Generate Fine-Grained Robotic Assembly Instructions from Multi-View Images [24.10809783713574]
本稿では, 構造的3次元モデルのマルチビュー画像を, 組み立て命令の詳細なシーケンスに変換するという, 新たな課題を紹介する。
本稿では,ニューラルアセンブラ(Neural Assembler)と呼ばれるエンドツーエンドモデルを提案する。
論文 参考訳(メタデータ) (2024-04-25T08:53:23Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - Leveraging SE(3) Equivariance for Learning 3D Geometric Shape Assembly [7.4109730384078025]
形状アセンブリは、部品(または断片)を完全なオブジェクトに再組み立てすることを目的としている。
部分表現の形状ポーズの歪みは幾何学的形状の組立に有用である。
本稿では,SE(3) の等式をこのような形状の非絡み合いに利用することを提案する。
論文 参考訳(メタデータ) (2023-09-13T09:00:45Z) - Attention-based Part Assembly for 3D Volumetric Shape Modeling [0.0]
本稿では、注意に基づく部分集合のためのVoxAttention Networkアーキテクチャを提案する。
実験結果から,本手法は部分関係を考慮した3次元形状モデリングタスクにおいて,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-17T16:53:27Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - Learning 3D Part Assembly from a Single Image [20.175502864488493]
そこで本研究では,新たな問題として,学習ベースのソリューションとともに,シングルイメージの3Dパーツアセンブリを導入する。
本報告では, 家具組立において, 部品の完全な集合と, 組み立て物全体を描いた一枚の画像から, 家具組立の設定について検討する。
論文 参考訳(メタデータ) (2020-03-21T21:19:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。