論文の概要: Jigsaw: Learning to Assemble Multiple Fractured Objects
- arxiv url: http://arxiv.org/abs/2305.17975v1
- Date: Mon, 29 May 2023 09:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 15:40:02.014057
- Title: Jigsaw: Learning to Assemble Multiple Fractured Objects
- Title(参考訳): jigsaw: 複数の割れたオブジェクトを組み立てる学習
- Authors: Jiaxin Lu, Yifan Sun, Qixing Huang
- Abstract要約: Jigsawは物理的に壊れた3Dオブジェクトを複数の部品から組み立てるための新しいフレームワークです。
本フレームワークは,(1) 破面と原点を分離するための面分割,(2) 破面点間の対応を見つけるための多部マッチング,(3) 破面のグローバルなポーズを復元するためのロバストなグローバルアライメントの3つの構成要素から構成される。
我々はBreaking Badデータセット上でJigsawを評価し、最先端の手法と比較して優れたパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 30.965824404314425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated assembly of 3D fractures is essential in orthopedics, archaeology,
and our daily life. This paper presents Jigsaw, a novel framework for
assembling physically broken 3D objects from multiple pieces. Our approach
leverages hierarchical features of global and local geometry to match and align
the fracture surfaces. Our framework consists of three components: (1) surface
segmentation to separate fracture and original parts, (2) multi-parts matching
to find correspondences among fracture surface points, and (3) robust global
alignment to recover the global poses of the pieces. We show how to jointly
learn segmentation and matching and seamlessly integrate feature matching and
rigidity constraints. We evaluate Jigsaw on the Breaking Bad dataset and
achieve superior performance compared to state-of-the-art methods. Our method
also generalizes well to diverse fracture modes, objects, and unseen instances.
To the best of our knowledge, this is the first learning-based method designed
specifically for 3D fracture assembly over multiple pieces.
- Abstract(参考訳): 3次元骨折の自動化は, 整形外科, 考古学, 日常生活に不可欠である。
本稿では,物理的に破損した3dオブジェクトを複数のピースから組み立てる新しいフレームワークjigsawを提案する。
本手法は,大域的および局所的形状の階層的特徴を活用し,破壊面を整合・整列する。
本研究の枠組みは,(1)破面と原点を分離する表面区分,(2)破面点間の対応を求めるために一致した複数部分,(3)大域的ポーズを回復するためのロバストなグローバルアライメント,の3つの構成要素からなる。
セグメンテーションとマッチングを共同で学習し,機能マッチングと剛性制約をシームレスに統合する方法を示す。
破壊的バッドデータセットにおけるjigsawを評価し,最先端の手法と比較して優れた性能を実現する。
また, 様々な破壊モード, 物体, および未発見のインスタンスに対してよく一般化する。
私たちの知る限りでは、これは複数の部品にまたがる3d骨折の組み立てのために特別に設計された最初の学習ベースの方法です。
関連論文リスト
- Hierarchically Structured Neural Bones for Reconstructing Animatable Objects from Casual Videos [37.455535904703204]
カジュアルなビデオを用いて任意のオブジェクトの3Dモデルを作成し,操作するための新しいフレームワークを提案する。
我々の中核となる要素は、木構造骨で物体の動きをキャプチャする新しい変形階層モデルである。
筆者らのフレームワークは,(1) 任意のオブジェクトのアニマタブルな3Dモデルを得ることができ,(2) ユーザは最小限のコストで直感的に3Dモデルを操作でき,(3) ユーザーは必要に応じてインタラクティブに制御ポイントを追加・削除することができる。
論文 参考訳(メタデータ) (2024-08-01T07:42:45Z) - 3D Geometric Shape Assembly via Efficient Point Cloud Matching [59.241448711254485]
Proxy Match Transform (PMT) は、部品の配向面間の信頼性の高いマッチングを可能にする、高次特徴変換層である。
PMT を基盤として,幾何学的組立作業のための新しいフレームワーク Proxy Match TransformeR (PMTR) を導入する。
我々は,Breaking Badの大規模3次元幾何形状集合ベンチマークデータセットを用いてPMTRの評価を行った。
論文 参考訳(メタデータ) (2024-07-15T08:50:02Z) - Reassembling Broken Objects using Breaking Curves [11.679900805394816]
うまく一般化する堅牢なソリューションは、さまざまなタイプの壊れたオブジェクトに関連する多様なパターンを扱う必要があります。
本稿では,物体の種類に依存しない3次元点雲のペア組立に取り組む手法を提案する。
その結果, 異なる種類の壊れたオブジェクトの再集合において, 解法は良好に機能することがわかった。
論文 参考訳(メタデータ) (2023-06-05T11:16:50Z) - Building Rearticulable Models for Arbitrary 3D Objects from 4D Point
Clouds [28.330364666426345]
任意の数の部品を含む日常的な人工物に対して再計算可能なモデルを構築する。
本手法では, 異なる対象部位, どの部位が他の部位に接続されているか, および各部位を接続する接合部の性質を同定する。
論文 参考訳(メタデータ) (2023-06-01T17:59:21Z) - Fantastic Breaks: A Dataset of Paired 3D Scans of Real-World Broken
Objects and Their Complete Counterparts [0.5572870549559665]
Fantastic Breaksは、150個の壊れたオブジェクトに対してスキャンされ、防水され、クリーン化された3Dメッシュを含むデータセットです。
Fantastic Breaksには、クラスとマテリアルラベル、壊れたメッシュと結合するプロキシ修復部品、手動でアノテートされた破壊境界が含まれている。
複数の学習手法を用いたファンタスティックブレイクによる形状修復評価実験を行った。
論文 参考訳(メタデータ) (2023-03-24T17:03:40Z) - PartAfford: Part-level Affordance Discovery from 3D Objects [113.91774531972855]
パートレベルの空き地探索(PartAfford)の課題について紹介する。
対象物当たりの空きラベルのみを考慮し、(i)3D形状を部品に分解し、(ii)各部品が特定の空きカテゴリに対応する方法を検出する。
本稿では,パーセンテージ・セットの監督と幾何学的原始正規化のみを活用することで,パートレベルの表現を発見する新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:36Z) - 3D Compositional Zero-shot Learning with DeCompositional Consensus [102.7571947144639]
我々は、部分的知識は観察されたオブジェクトクラスを超えて構成可能であるべきだと論じる。
本稿では、視覚から見えないオブジェクトクラスへの部分一般化の問題として、3D合成ゼロショット学習を提案する。
論文 参考訳(メタデータ) (2021-11-29T16:34:53Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - AutoSweep: Recovering 3D Editable Objectsfrom a Single Photograph [54.701098964773756]
セマンティックな部分で3Dオブジェクトを復元し、直接編集することを目的としている。
我々の研究は、一般化された立方体と一般化されたシリンダーという、2種類の原始的な形状の物体を回収する試みである。
提案アルゴリズムは,高品質な3Dモデルを復元し,既存手法のインスタンスセグメンテーションと3D再構成の両方で性能を向上する。
論文 参考訳(メタデータ) (2020-05-27T12:16:24Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。