論文の概要: FoV-Net: Rotation-Invariant CAD B-rep Learning via Field-of-View Ray Casting
- arxiv url: http://arxiv.org/abs/2602.24084v1
- Date: Fri, 27 Feb 2026 15:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.485477
- Title: FoV-Net: Rotation-Invariant CAD B-rep Learning via Field-of-View Ray Casting
- Title(参考訳): FoV-Net:フィールド・オブ・ビュー・レイキャスティングによる回転不変CAD B-rep Learning
- Authors: Matteo Ballegeer, Dries F. Benoit,
- Abstract要約: 我々はFoV-Netを紹介した。FoV-Netは局所曲面幾何学と大域構造文脈の両方を回転不変の方法でキャプチャする最初のB-rep学習フレームワークである。
我々は,FoV-NetがB-rep分類とセグメンテーションベンチマークの最先端性能を実現し,任意の回転を示すとともに,強い結果を得るためにトレーニングデータが少ないことを示す。
- 参考スコア(独自算出の注目度): 0.5156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning directly from boundary representations (B-reps) has significantly advanced 3D CAD analysis. However, state-of-the-art B-rep learning methods rely on absolute coordinates and normals to encode global context, making them highly sensitive to rotations. Our experiments reveal that models achieving over 95% accuracy on aligned benchmarks can collapse to as low as 10% under arbitrary $\mathbf{SO}(3)$ rotations. To address this, we introduce FoV-Net, the first B-rep learning framework that captures both local surface geometry and global structural context in a rotation-invariant manner. Each face is represented by a Local Reference Frame (LRF) UV-grid that encodes its local surface geometry, and by Field-of-View (FoV) grids that capture the surrounding 3D context by casting rays and recording intersections with neighboring faces. Lightweight CNNs extract per-face features, which are propagated over the B-rep graph using a graph attention network. FoV-Net achieves state-of-the-art performance on B-rep classification and segmentation benchmarks, demonstrating robustness to arbitrary rotations while also requiring less training data to achieve strong results.
- Abstract(参考訳): 境界表現(B-reps)から直接の学習は、3次元CAD解析に大きく進歩した。
しかし、最先端のB-rep学習法は、グローバルコンテキストを符号化するために絶対座標と正規度に依存しており、回転に非常に敏感である。
実験の結果, 任意の$\mathbf{SO}(3)$回転の下で, 95%以上の精度を達成するモデルが10%以下に崩壊することがわかった。
この問題を解決するためにFoV-Netは,局所表面形状と大域構造コンテキストの両方を回転不変の方法でキャプチャする最初のB-rep学習フレームワークである。
各顔は、その局所的な表面形状を符号化する局所参照フレーム(LRF)UVグリッドと、周囲の3Dコンテキストを撮影するフィールド・オブ・ビュー(FoV)グリッドによって表現される。
軽量CNNは、グラフアテンションネットワークを用いてB-repグラフ上に伝搬される顔ごとの特徴を抽出する。
FoV-Netは、B-rep分類とセグメンテーションベンチマークにおける最先端のパフォーマンスを達成し、任意の回転に対する堅牢性を証明し、強い結果を得るためにはトレーニングデータが少ない。
関連論文リスト
- BrepGaussian: CAD reconstruction from Multi-View Images with Gaussian Splatting [21.289489202626534]
境界表現(B-rep)は、その明示的な境界として3次元固体をモデル化する。
ディープラーニングの最近の進歩は、3次元形状の復元を大幅に改善した。
2次元画像から3次元パラメトリック表現を学習する新しいフレームワークであるB-rep Splattingを提案する。
論文 参考訳(メタデータ) (2026-02-24T17:03:45Z) - SegMASt3R: Geometry Grounded Segment Matching [23.257530861472656]
我々は3次元基礎モデルの空間的理解を活用して,広義のセグメントマッチングに取り組む。
本稿では,これら3次元基礎モデルの帰納バイアスを利用して,最大180度の視点変化回転で画像対間のセグメントをマッチングするアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-10-06T17:31:32Z) - R-SCoRe: Revisiting Scene Coordinate Regression for Robust Large-Scale Visual Localization [66.87005863868181]
可視性グラフに基づくグローバルエンコーディング学習とデータ拡張戦略を導入する。
ネットワークアーキテクチャとローカル特徴抽出モジュールを再考する。
本手法は,ネットワークアンサンブルや3D監視に頼ることなく,大規模データセットに挑戦する最先端の手法を実現する。
論文 参考訳(メタデータ) (2025-01-02T18:59:08Z) - OpenShape: Scaling Up 3D Shape Representation Towards Open-World
Understanding [53.21204584976076]
我々は,テキスト,画像,点雲のマルチモーダルな共同表現を学習するOpenShapeを紹介する。
複数の3Dデータセットをアンサンブルすることで、トレーニングデータをスケールアップし、ノイズの多いテキスト記述を自動的にフィルタリングし、強化するためのいくつかの戦略を提案する。
ゼロショット3D分類ベンチマークでOpenShapeを評価し,オープンワールド認識の優れた能力を実証した。
論文 参考訳(メタデータ) (2023-05-18T07:07:19Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Neural-Pull: Learning Signed Distance Functions from Point Clouds by
Learning to Pull Space onto Surfaces [68.12457459590921]
3次元点雲から連続曲面を再構成することは、3次元幾何処理の基本的な操作である。
textitNeural-Pullは、シンプルで高品質なSDFを実現する新しいアプローチです。
論文 参考訳(メタデータ) (2020-11-26T23:18:10Z) - Rotation-Invariant Local-to-Global Representation Learning for 3D Point
Cloud [42.86112554931754]
本稿では,3次元点クラウドデータに対する局所的-言語的表現学習アルゴリズムを提案する。
本モデルは,グラフ畳み込みニューラルネットワークに基づく多レベル抽象化を利用する。
提案アルゴリズムは,3次元物体の回転認識とセグメント化のベンチマークにおいて,最先端の性能を示す。
論文 参考訳(メタデータ) (2020-10-07T10:30:20Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。