論文の概要: GARF: Learning Generalizable 3D Reassembly for Real-World Fractures
- arxiv url: http://arxiv.org/abs/2504.05400v1
- Date: Mon, 07 Apr 2025 18:13:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:31:25.635213
- Title: GARF: Learning Generalizable 3D Reassembly for Real-World Fractures
- Title(参考訳): GARF: 実世界の骨折の3D再構成を学習する
- Authors: Sihang Li, Zeyu Jiang, Grace Chen, Chenyang Xu, Siqi Tan, Xue Wang, Irving Fang, Kristof Zyskowski, Shannon P. McPherron, Radu Iovita, Chen Feng, Jing Zhang,
- Abstract要約: 3D再組み立ては、科学分野にまたがる幅広い応用において、困難な空間知能の課題である。
実世界の骨折に対する一般化可能な3次元再構成フレームワークであるGARFを提案する。
考古学者、古人類学者、鳥類学者と共同で、視覚と学習コミュニティのための多様なデータセットであるFracturaをキュレートする。
- 参考スコア(独自算出の注目度): 14.531506705859949
- License:
- Abstract: 3D reassembly is a challenging spatial intelligence task with broad applications across scientific domains. While large-scale synthetic datasets have fueled promising learning-based approaches, their generalizability to different domains is limited. Critically, it remains uncertain whether models trained on synthetic datasets can generalize to real-world fractures where breakage patterns are more complex. To bridge this gap, we propose GARF, a generalizable 3D reassembly framework for real-world fractures. GARF leverages fracture-aware pretraining to learn fracture features from individual fragments, with flow matching enabling precise 6-DoF alignments. At inference time, we introduce one-step preassembly, improving robustness to unseen objects and varying numbers of fractures. In collaboration with archaeologists, paleoanthropologists, and ornithologists, we curate Fractura, a diverse dataset for vision and learning communities, featuring real-world fracture types across ceramics, bones, eggshells, and lithics. Comprehensive experiments have shown our approach consistently outperforms state-of-the-art methods on both synthetic and real-world datasets, achieving 82.87\% lower rotation error and 25.15\% higher part accuracy. This sheds light on training on synthetic data to advance real-world 3D puzzle solving, demonstrating its strong generalization across unseen object shapes and diverse fracture types.
- Abstract(参考訳): 3D再組み立ては、科学分野にまたがる幅広い応用において、困難な空間知能の課題である。
大規模合成データセットは、有望な学習ベースのアプローチに拍車をかけたが、異なる領域への一般化性は限られている。
批判的なことに、合成データセットで訓練されたモデルが、破壊パターンがより複雑である現実世界の骨折に一般化できるかどうかは不明だ。
このギャップを埋めるために,実世界のフラクチャーに対する一般化可能な3次元再構成フレームワークであるGARFを提案する。
GARFはフラクチャー・アウェア・プレトレーニングを活用して、個々のフラグメントからフラクチャーの特徴を学習し、フローマッチングにより正確な6-DoFアライメントを可能にする。
推測時に1段階のプレアセンブリを導入し、未確認物体に対する堅牢性を改善し、様々な数の骨折を発生させる。
考古学者、古人類学者、鳥類学者と共同で、視覚と学習のための多様なデータセットであるFracturaをキュレートしました。
総合的な実験により、我々のアプローチは、合成と実世界の両方のデータセットにおける最先端の手法を一貫して上回り、ローテーションエラーが82.87.%、部品精度が25.15.%に達した。
これは、実世界の3Dパズル解決を進めるための合成データのトレーニングに光を当て、見えない物体の形と多様な破壊タイプにまたがる強力な一般化を実証する。
関連論文リスト
- GEAL: Generalizable 3D Affordance Learning with Cross-Modal Consistency [50.11520458252128]
既存の3Dアベイランス学習手法は、注釈付きデータに制限があるため、一般化と堅牢性に苦慮している。
本稿では,大規模事前学習型2Dモデルを活用することで,3次元アベイランス学習の一般化と堅牢性を高めるための新しいフレームワークであるGEALを提案する。
GEALは、既存のメソッドと、新しいオブジェクトカテゴリ、および破損したデータにおいて、一貫して優れています。
論文 参考訳(メタデータ) (2024-12-12T17:59:03Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - REACTO: Reconstructing Articulated Objects from a Single Video [64.89760223391573]
関節の柔軟な変形を維持しつつ各部の剛性を向上する新しい変形モデルを提案する。
提案手法は, 従来よりも高忠実度な3D再構成を実現する上で, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T08:01:55Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Scalable Geometric Fracture Assembly via Co-creation Space among
Assemblers [24.89380678499307]
我々は,意味情報に頼らずに,幾何学的フラクチャーアセンブリのためのスケーラブルなフレームワークを開発した。
本稿では, フラクチャー・アセンブリ・プロセスにおける衝突問題に対処するために, 新たな損失関数,すなわち幾何に基づく衝突損失を導入する。
私たちのフレームワークは、既存の最先端フレームワークと比較して、PartNetとBreaking Badデータセットの両方でパフォーマンスが向上しています。
論文 参考訳(メタデータ) (2023-12-19T17:13:51Z) - Jigsaw: Learning to Assemble Multiple Fractured Objects [30.32138466263263]
Jigsawは物理的に壊れた3Dオブジェクトを複数の部品から組み立てるための新しいフレームワークです。
セグメンテーションとマッチングを共同で学習し、特徴マッチングと剛性制約をシームレスに統合する方法を示す。
また, 多様なフラクチャーモード, オブジェクト, 目に見えないインスタンスをうまく一般化する。
論文 参考訳(メタデータ) (2023-05-29T09:33:43Z) - Fantastic Breaks: A Dataset of Paired 3D Scans of Real-World Broken
Objects and Their Complete Counterparts [0.5572870549559665]
Fantastic Breaksは、150個の壊れたオブジェクトに対してスキャンされ、防水され、クリーン化された3Dメッシュを含むデータセットです。
Fantastic Breaksには、クラスとマテリアルラベル、壊れたメッシュと結合するプロキシ修復部品、手動でアノテートされた破壊境界が含まれている。
複数の学習手法を用いたファンタスティックブレイクによる形状修復評価実験を行った。
論文 参考訳(メタデータ) (2023-03-24T17:03:40Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - MDA GAN: Adversarial-Learning-based 3-D Seismic Data Interpolation and
Reconstruction for Complex Missing [6.345037597566314]
MDA GAN(Multi-dimensional Adrial GAN)は、新しい3D GANフレームワークである。
MDA GANは、再構成されたデータの各次元における元のデータ分布との整合性を確保するために、3つの識別器を使用する。
この手法は、最大95%のランダムな離散欠失、100の連続欠失、さらに複雑なハイブリッド欠失に対する合理的な再構成を実現する。
論文 参考訳(メタデータ) (2022-04-07T04:01:53Z) - Learning perturbation sets for robust machine learning [97.6757418136662]
我々は、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習した摂動集合の質を定量的かつ質的に測定する。
我々は、学習した摂動集合を利用して、敵画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練する。
論文 参考訳(メタデータ) (2020-07-16T16:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。