論文の概要: HoLa: B-Rep Generation using a Holistic Latent Representation
- arxiv url: http://arxiv.org/abs/2504.14257v2
- Date: Tue, 22 Apr 2025 10:12:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 11:57:34.954555
- Title: HoLa: B-Rep Generation using a Holistic Latent Representation
- Title(参考訳): HoLa: 正則潜在表現を用いたB-Rep生成
- Authors: Yilin Liu, Duoteng Xu, Xingyao Yu, Xiang Xu, Daniel Cohen-Or, Hao Zhang, Hui Huang,
- Abstract要約: 我々は、$textitboundary representations$ (B-Reps)という形式でコンピュータ支援設計(CAD)モデルを学習し、生成するための新しい表現を導入する。
我々の表現は、B-Repプリミティブの連続幾何学的性質を異なる順序で統一する。
提案手法は生成したB-Repプリミティブ間のあいまいさ,冗長性,不整合性を著しく低減する。
- 参考スコア(独自算出の注目度): 51.07878285790399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel representation for learning and generating Computer-Aided Design (CAD) models in the form of $\textit{boundary representations}$ (B-Reps). Our representation unifies the continuous geometric properties of B-Rep primitives in different orders (e.g., surfaces and curves) and their discrete topological relations in a $\textit{holistic latent}$ (HoLa) space. This is based on the simple observation that the topological connection between two surfaces is intrinsically tied to the geometry of their intersecting curve. Such a prior allows us to reformulate topology learning in B-Reps as a geometric reconstruction problem in Euclidean space. Specifically, we eliminate the presence of curves, vertices, and all the topological connections in the latent space by learning to distinguish and derive curve geometries from a pair of surface primitives via a neural intersection network. To this end, our holistic latent space is only defined on surfaces but encodes a full B-Rep model, including the geometry of surfaces, curves, vertices, and their topological relations. Our compact and holistic latent space facilitates the design of a first diffusion-based generator to take on a large variety of inputs including point clouds, single/multi-view images, 2D sketches, and text prompts. Our method significantly reduces ambiguities, redundancies, and incoherences among the generated B-Rep primitives, as well as training complexities inherent in prior multi-step B-Rep learning pipelines, while achieving greatly improved validity rate over current state of the art: 82% vs. $\approx$50%.
- Abstract(参考訳): 本稿では,コンピュータ支援設計モデル(CAD)を$\textit{boundary representations}$ (B-Reps)形式で学習・生成するための新しい表現を紹介する。
我々の表現は、異なる順序(例えば曲面や曲線)で B-Rep 原始体の連続幾何学的性質と、それらの離散位相関係を $\textit{holistic latent}$ (HoLa) 空間で統一する。
これは、2つの曲面の間の位相的接続が本質的にそれらの交差曲線の幾何学と結びついているという単純な観察に基づいている。
このような事前は、ユークリッド空間における幾何再構成問題として、B-Repsにおける位相学習を再構成することができる。
具体的には,曲線,頂点,および潜在空間におけるすべてのトポロジカル接続の存在を,ニューラルネットワークを介して曲面原始体から曲線幾何学を識別および導出することを学ぶことによって排除する。
この目的のために、我々の全体論的潜在空間は曲面上でのみ定義されるが、曲面、曲線、頂点、およびそれらの位相関係の幾何学を含む完全なB-Repモデルを符号化する。
我々のコンパクトで総合的な潜在空間は、点雲、単一/複数ビュー画像、2Dスケッチ、テキストプロンプトなど、様々な入力を行うための、最初の拡散ベースのジェネレータの設計を容易にする。
提案手法は, B-Repプリミティブの曖昧さ, 冗長性, 不整合性を著しく低減するとともに, 従来のB-Rep学習パイプラインに固有の訓練複雑度も低減し, 現状よりも精度が向上した。
関連論文リスト
- BRepFormer: Transformer-Based B-rep Geometric Feature Recognition [14.01667117252404]
B-repモデル上の幾何学的特徴を認識することは、マルチメディアコンテンツに基づく検索の基盤となる技術である。
本稿では,加工特徴と複雑なCADモデルの特徴の両方を認識するトランスフォーマーモデルであるBRepFormerを提案する。
BRepFormerは、MFInstSeg、MFTRCAD、および我々のCBFデータセット上で最先端の精度を達成する。
論文 参考訳(メタデータ) (2025-04-10T01:36:06Z) - DTGBrepGen: A Novel B-rep Generative Model through Decoupling Topology and Geometry [3.859930277034918]
幾何学モデルの境界表現(B-rep)はCADの基本形式である
B-rep生成のための新しいトポロジ・ジオメトリ・デカップリングフレームワークDTGBrepGenを提案する。
論文 参考訳(メタデータ) (2025-03-17T12:34:14Z) - SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Split-and-Fit: Learning B-Reps via Structure-Aware Voronoi Partitioning [50.684254969269546]
本稿では,3次元CADモデルのバウンダリ表現(B-Reps)を取得する新しい手法を提案する。
各パーティション内に1つのプリミティブを導出するために空間分割を適用する。
我々のネットワークはニューラルなボロノイ図でNVD-Netと呼ばれ、訓練データからCADモデルのボロノイ分割を効果的に学習できることを示す。
論文 参考訳(メタデータ) (2024-06-07T21:07:49Z) - BrepGen: A B-rep Generative Diffusion Model with Structured Latent Geometry [24.779824909395245]
BrepGenは拡散に基づく生成手法であり、境界表現(Breep)コンピュータ支援設計(CAD)モデルを直接出力する。
BrepGenは、階層木における新しい構造付き潜在幾何学としてB-repモデルを表す。
論文 参考訳(メタデータ) (2024-01-28T04:07:59Z) - Surf-D: Generating High-Quality Surfaces of Arbitrary Topologies Using Diffusion Models [83.35835521670955]
Surf-Dは任意の位相を持つ表面として高品質な3次元形状を生成する新しい方法である。
非符号距離場(UDF)を曲面表現として用いて任意の位相を許容する。
また、ポイントベースのAutoEncoderを用いて、UDFを正確に符号化するためのコンパクトで連続的な潜在空間を学習する新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:56:01Z) - Towards General-Purpose Representation Learning of Polygonal Geometries [62.34832826705641]
我々は,多角形形状を埋め込み空間に符号化できる汎用多角形符号化モデルを開発した。
1)MNISTに基づく形状分類,2)DBSR-46KとDBSR-cplx46Kという2つの新しいデータセットに基づく空間関係予測を行う。
以上の結果から,NUFTspec と ResNet1D は,既存のベースラインよりも有意なマージンで優れていた。
論文 参考訳(メタデータ) (2022-09-29T15:59:23Z) - Geo-Neus: Geometry-Consistent Neural Implicit Surfaces Learning for
Multi-view Reconstruction [41.43563122590449]
多視点再構成のための幾何一貫性のあるニューラルサーフェス学習を提案する。
提案手法は, 複雑な薄板構造と大きな平滑領域の両方において, 高品質な表面再構成を実現する。
論文 参考訳(メタデータ) (2022-05-31T14:52:07Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - UV-Net: Learning from Boundary Representations [17.47054752280569]
本稿では,3次元CADモデルによる境界表現(B-rep)データを直接操作するために設計された新しいニューラルネットワークアーキテクチャと表現であるUV-Netを紹介する。
B-repデータは、データ構造が複雑であり、連続的な非ユークリッド幾何学的エンティティと離散位相的エンティティの両方をサポートするため、現代の機械学習で使用される際、いくつかのユニークな課題を示す。
論文 参考訳(メタデータ) (2020-06-18T00:12:52Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。