論文の概要: BrepGaussian: CAD reconstruction from Multi-View Images with Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2602.21105v1
- Date: Tue, 24 Feb 2026 17:03:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.855035
- Title: BrepGaussian: CAD reconstruction from Multi-View Images with Gaussian Splatting
- Title(参考訳): BrepGaussian:Gaussian Splattingを用いた多視点画像からのCAD再構成
- Authors: Jiaxing Yu, Dongyang Ren, Hangyu Xu, Zhouyuxiao Yang, Yuanqi Li, Jie Guo, Zhengkang Zhou, Yanwen Guo,
- Abstract要約: 境界表現(B-rep)は、その明示的な境界として3次元固体をモデル化する。
ディープラーニングの最近の進歩は、3次元形状の復元を大幅に改善した。
2次元画像から3次元パラメトリック表現を学習する新しいフレームワークであるB-rep Splattingを提案する。
- 参考スコア(独自算出の注目度): 21.289489202626534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The boundary representation (B-rep) models a 3D solid as its explicit boundaries: trimmed corners, edges, and faces. Recovering B-rep representation from unstructured data is a challenging and valuable task of computer vision and graphics. Recent advances in deep learning have greatly improved the recovery of 3D shape geometry, but still depend on dense and clean point clouds and struggle to generalize to novel shapes. We propose B-rep Gaussian Splatting (BrepGaussian), a novel framework that learns 3D parametric representations from 2D images. We employ a Gaussian Splatting renderer with learnable features, followed by a specific fitting strategy. To disentangle geometry reconstruction and feature learning, we introduce a two-stage learning framework that first captures geometry and edges and then refines patch features to achieve clean geometry and coherent instance representations. Extensive experiments demonstrate the superior performance of our approach to state-of-the-art methods. We will release our code and datasets upon acceptance.
- Abstract(参考訳): 境界表現(B-rep)は、3次元固体をその明示的な境界としてモデル化する。
構造化されていないデータからB-rep表現を復元することは、コンピュータビジョンとグラフィックスの課題であり、価値のある作業である。
深層学習の最近の進歩は、3次元形状の復元を大幅に改善しているが、それでも高密度で清潔な点の雲に依存し、新しい形状への一般化に苦慮している。
2次元画像から3次元パラメトリック表現を学習する新しいフレームワークであるB-rep Gaussian Splatting (BrepGaussian)を提案する。
学習可能な特徴を持つガウススプレイティングレンダラーを採用し,それに続く具体的なフィッティング戦略を提案する。
幾何再構成と特徴学習を両立させるために、まず幾何学とエッジをキャプチャし、次にパッチ機能を洗練してクリーンな幾何学と一貫性のあるインスタンス表現を実現するための2段階学習フレームワークを導入する。
大規模な実験は、最先端手法に対する我々のアプローチの優れた性能を示す。
受け入れ次第、コードとデータセットをリリースします。
関連論文リスト
- Geometry and Perception Guided Gaussians for Multiview-consistent 3D Generation from a Single Image [10.648593818811976]
既存のアプローチはしばしば、微調整された事前訓練された2D拡散モデルや、高速ネットワーク推論を通じて直接3D情報を生成することに依存している。
本稿では,新たなモデルトレーニングを必要とせず,幾何学と知覚情報をシームレスに統合する新しい手法を提案する。
実験結果から,新しい視点合成法や3次元再構成法よりも優れ,頑健で一貫した3次元オブジェクト生成を実証した。
論文 参考訳(メタデータ) (2025-06-26T11:22:06Z) - 2D Triangle Splatting for Direct Differentiable Mesh Training [4.161453036693641]
2DTS(2D Triangle Splatting)は、3次元ガウス原始体を2次元三角形のフェーレットに置き換える新しい方法である。
三角形プリミティブにコンパクト性パラメータを組み込むことで、光現実性メッシュの直接訓練を可能にする。
提案手法は,既存のメッシュ再構成手法と比較して,視覚的品質の優れた再構成メッシュを生成する。
論文 参考訳(メタデータ) (2025-06-23T12:26:47Z) - Self-supervised Learning of Hybrid Part-aware 3D Representations of 2D Gaussians and Superquadrics [16.446659867133977]
PartGSは、オブジェクトやシーンを解釈可能な分解に解析するために、2Dガウスとスーパークワッドリックを統合する、自己管理された部分認識再構築フレームワークである。
提案手法は,DTU,ShapeNet,および実世界のデータセットに関する広範な実験において,最先端の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-20T12:30:37Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - 3D Neural Edge Reconstruction [61.10201396044153]
本研究では,線と曲線に焦点をあてて3次元エッジ表現を学習する新しい手法であるEMAPを紹介する。
多視点エッジマップから無符号距離関数(UDF)の3次元エッジ距離と方向を暗黙的に符号化する。
この神経表現の上に、推定されたエッジ点とその方向から3次元エッジを頑健に抽象化するエッジ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T17:23:51Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。