論文の概要: Learning 3D Part Assembly from a Single Image
- arxiv url: http://arxiv.org/abs/2003.09754v2
- Date: Tue, 24 Mar 2020 17:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 13:15:27.475795
- Title: Learning 3D Part Assembly from a Single Image
- Title(参考訳): 単一画像から3次元部品組立を学習する
- Authors: Yichen Li and Kaichun Mo and Lin Shao and Minhyuk Sung and Leonidas
Guibas
- Abstract要約: そこで本研究では,新たな問題として,学習ベースのソリューションとともに,シングルイメージの3Dパーツアセンブリを導入する。
本報告では, 家具組立において, 部品の完全な集合と, 組み立て物全体を描いた一枚の画像から, 家具組立の設定について検討する。
- 参考スコア(独自算出の注目度): 20.175502864488493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous assembly is a crucial capability for robots in many applications.
For this task, several problems such as obstacle avoidance, motion planning,
and actuator control have been extensively studied in robotics. However, when
it comes to task specification, the space of possibilities remains
underexplored. Towards this end, we introduce a novel problem,
single-image-guided 3D part assembly, along with a learningbased solution. We
study this problem in the setting of furniture assembly from a given complete
set of parts and a single image depicting the entire assembled object. Multiple
challenges exist in this setting, including handling ambiguity among parts
(e.g., slats in a chair back and leg stretchers) and 3D pose prediction for
parts and part subassemblies, whether visible or occluded. We address these
issues by proposing a two-module pipeline that leverages strong 2D-3D
correspondences and assembly-oriented graph message-passing to infer part
relationships. In experiments with a PartNet-based synthetic benchmark, we
demonstrate the effectiveness of our framework as compared with three baseline
approaches.
- Abstract(参考訳): 自律的な組み立ては多くのアプリケーションにおいてロボットにとって重要な能力である。
この課題に対して,ロボット工学において障害物回避,運動計画,アクチュエータ制御などの課題が広く研究されている。
しかし、タスク仕様に関しては、可能性の空間は未検討のままです。
この目的のために,学習ベースのソリューションとともに,単一画像による3次元部品組み立てという新たな問題を導入する。
本報告では, 家具組立において, 部品の完全な集合と, 組み立て物全体を描いた一枚の画像から, 家具組立の設定について検討する。
この設定では、部品間のあいまいさ(例えば、椅子の背と脚のストレッチャーのスラット)の取り扱いや、可視性の有無に関わらず部品と部分のサブアセンブリの3dポーズ予測など、複数の課題が存在する。
本稿では,強い2D-3D対応と組立指向グラフメッセージパッシングを利用して部分関係を推定する2モジュールパイプラインを提案する。
partnetベースの合成ベンチマークを用いた実験では,3つのベースラインアプローチと比較して,フレームワークの有効性を実証する。
関連論文リスト
- Multimodal 3D Reasoning Segmentation with Complex Scenes [92.92045550692765]
シーン内の複数のオブジェクトに対する3次元推論セグメンテーションタスクを提案することで,研究ギャップを埋める。
このタスクは、オブジェクト間の3次元空間関係によって強化された3Dセグメンテーションマスクと詳細なテキスト説明を作成することができる。
さらに,ユーザ質問やテキスト出力による多目的3D推論セグメンテーションを可能にする,シンプルで効果的なMORE3Dを設計する。
論文 参考訳(メタデータ) (2024-11-21T08:22:45Z) - AssemblyComplete: 3D Combinatorial Construction with Deep Reinforcement Learning [4.3507834596906125]
ロボット工学における重要なゴールは、ロボットに現実世界の協調作業、特に自動組み立てに適応するように教えることである。
本稿では, ユニットプリミティブ(レゴブロック)を用いて実演した3次元組立工法を紹介する。
本研究では,ロボットに不完全な組立の目的を理解し,組立を完了するための建設方針を学ぶための2部構成の深層強化学習(DRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-20T18:51:17Z) - DVPE: Divided View Position Embedding for Multi-View 3D Object Detection [7.791229698270439]
現在の研究は、受容場間のバランスと、多視点の特徴を集約する際の干渉を減らすことの課題に直面している。
本稿では,視覚的クロスアテンション機構を通じて特徴を世界規模でモデル化する分割ビュー手法を提案する。
我々のフレームワークはDVPEと呼ばれ、nuScenesテストセット上で最先端のパフォーマンス(57.2% mAPと64.5% NDS)を達成する。
論文 参考訳(メタデータ) (2024-07-24T02:44:41Z) - Neural Assembler: Learning to Generate Fine-Grained Robotic Assembly Instructions from Multi-View Images [24.10809783713574]
本稿では, 構造的3次元モデルのマルチビュー画像を, 組み立て命令の詳細なシーケンスに変換するという, 新たな課題を紹介する。
本稿では,ニューラルアセンブラ(Neural Assembler)と呼ばれるエンドツーエンドモデルを提案する。
論文 参考訳(メタデータ) (2024-04-25T08:53:23Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - Four Ways to Improve Verbo-visual Fusion for Dense 3D Visual Grounding [56.00186960144545]
3Dビジュアルグラウンドティング(3D visual grounding)は、自然言語で記述された3Dシーンでオブジェクトをローカライズするタスクである。
そこで本研究では,高密度な3次元グラウンドネットワークを提案し,グラウンド性能向上を目的とした4つの新しいスタンドアローンモジュールを提案する。
論文 参考訳(メタデータ) (2023-09-08T19:27:01Z) - Language-free Compositional Action Generation via Decoupling Refinement [67.50452446686725]
本稿では,言語補助に頼らずに作曲行動を生成する新しい枠組みを提案する。
このアプローチは,アクション結合,条件付きアクション生成,デカップリングリファインメントという3つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-07-07T12:00:38Z) - 3D Part Assembly Generation with Instance Encoded Transformer [22.330218525999857]
本稿では,部品間の幾何的および関係的な推論を伴い,部品の更新を反復的に行う多層トランスフォーマーベースのフレームワークを提案する。
フレームワークをプロセス内部分アセンブリと呼ばれる新しいタスクに拡張します。
提案手法は、パブリックなPartNetデータセット上の複数のメトリクスにおいて、現在の最先端よりも10%以上改善されている。
論文 参考訳(メタデータ) (2022-07-05T02:40:57Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - Generative 3D Part Assembly via Dynamic Graph Learning [34.108515032411695]
部品組み立ては、3Dコンピュータビジョンとロボット工学において難しいが重要な課題だ。
本稿では,反復グラフニューラルネットワークをバックボーンとして活用する,アセンブリ指向の動的グラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-14T04:26:42Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。