論文の概要: AutoRegressive Generation with B-rep Holistic Token Sequence Representation
- arxiv url: http://arxiv.org/abs/2601.16771v1
- Date: Fri, 23 Jan 2026 14:15:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.713336
- Title: AutoRegressive Generation with B-rep Holistic Token Sequence Representation
- Title(参考訳): B-rep正則なトークン列表現を用いた自己回帰生成
- Authors: Jiahao Li, Yunpeng Bai, Yongkang Dai, Hao Guo, Hongping Gan, Yilei Shi,
- Abstract要約: 本稿では,B-repの幾何学と位相を全体的トークンシーケンス表現にエンコードする最初の試みであるBrepARGを提案する。
具体的には、B-repを幾何学的特徴を表す幾何学と位置トークン、トポロジを表す顔インデックストークンの3種類のトークンにエンコードする。
BrepARGがSOTA(State-of-the-art)のパフォーマンスを達成することを示す実験がある。
- 参考スコア(独自算出の注目度): 31.0473553479822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous representation and generation approaches for the B-rep relied on graph-based representations that disentangle geometric and topological features through decoupled computational pipelines, thereby precluding the application of sequence-based generative frameworks, such as transformer architectures that have demonstrated remarkable performance. In this paper, we propose BrepARG, the first attempt to encode B-rep's geometry and topology into a holistic token sequence representation, enabling sequence-based B-rep generation with an autoregressive architecture. Specifically, BrepARG encodes B-rep into 3 types of tokens: geometry and position tokens representing geometric features, and face index tokens representing topology. Then the holistic token sequence is constructed hierarchically, starting with constructing the geometry blocks (i.e., faces and edges) using the above tokens, followed by geometry block sequencing. Finally, we assemble the holistic sequence representation for the entire B-rep. We also construct a transformer-based autoregressive model that learns the distribution over holistic token sequences via next-token prediction, using a multi-layer decoder-only architecture with causal masking. Experiments demonstrate that BrepARG achieves state-of-the-art (SOTA) performance. BrepARG validates the feasibility of representing B-rep as holistic token sequences, opening new directions for B-rep generation.
- Abstract(参考訳): B-repの以前の表現と生成のアプローチは、非結合の計算パイプラインを通して幾何学的特徴と位相的特徴を歪曲するグラフベースの表現に依存しており、それによって、顕著な性能を示すトランスフォーマーアーキテクチャのようなシーケンスベースの生成フレームワークの適用を前もって排除した。
本稿では,B-repの幾何学とトポロジを全体的トークンシーケンス表現にエンコードする最初の試みであるBrepARGを提案する。
具体的には、B-repを幾何学的特徴を表す幾何学と位置トークン、トポロジを表す顔インデックストークンの3種類のトークンにエンコードする。
次に、全体的トークンシーケンスは階層的に構築され、まず上記のトークンを使用して幾何学ブロック(すなわち、顔と縁)を構築し、次に幾何学ブロックシークエンシングを行う。
最後に、B-rep全体の全体的シーケンス表現を組み立てる。
また,マルチ層デコーダのみによる因果マスキングを用いたマルチ層デコーダアーキテクチャを用いて,トークン列上の分布を次トーケン予測により学習するトランスフォーマーに基づく自己回帰モデルを構築した。
BrepARGがSOTA(State-of-the-art)のパフォーマンスを達成することを示す実験がある。
BrepARGは、B-repを全体的トークンシーケンスとして表現し、B-rep生成のための新しい方向を開く可能性を検証する。
関連論文リスト
- ResTok: Learning Hierarchical Residuals in 1D Visual Tokenizers for Autoregressive Image Generation [64.84095852784714]
Residual Tokenizer (ResTok)は、画像トークンと潜在トークンの両方の階層的残基を構築する1Dビジュアルトークンライザである。
視覚的トークン化における階層的残差の復元はAR画像生成を著しく改善し,ImageNet-256ではわずか9ステップで2.34gFIDを達成した。
論文 参考訳(メタデータ) (2026-01-07T14:09:18Z) - AutoBrep: Autoregressive B-Rep Generation with Unified Topology and Geometry [13.357641924794402]
バウンダリ表現(バウンダリ表現、B-Rep)は、CAD(Computer-Aided Design)で用いられる標準データ構造である。
本稿では,B-Repsを高品質かつ有効に自動生成する新しいトランスフォーマーモデルであるAutoBrepを提案する。
論文 参考訳(メタデータ) (2025-12-02T18:46:25Z) - BrepGPT: Autoregressive B-rep Generation with Voronoi Half-Patch [61.20046418942948]
境界表現(B-rep)はCADモデル表現のデファクトスタンダードである。
本稿では,B-rep生成のためのシングルステージ自動回帰フレームワークBrepGPTを提案する。
論文 参考訳(メタデータ) (2025-11-27T07:16:53Z) - Spanning Tree Autoregressive Visual Generation [51.7635842702602]
本稿では,Spanning Tree Autoregressive (STAR) モデリングについて述べる。
論文 参考訳(メタデータ) (2025-11-21T09:45:17Z) - Seg-VAR: Image Segmentation with Visual Autoregressive Modeling [60.79579744943664]
本稿では,セグメンテーションを条件付き自己回帰マスク生成問題として再考する新しい枠組みを提案する。
これは、差別的な学習を潜在的な学習プロセスに置き換えることによって達成される。
提案手法は,(1)入力画像から潜時前処理を生成する画像エンコーダ,(2)分割マスクを離散潜時トークンにマッピングする空間認識セグレット(セグメンテーションマスクの潜時表現)エンコーダ,(3)これらの潜時マスクを再構成するデコーダの3つのコアコンポーネントを含む。
論文 参考訳(メタデータ) (2025-11-16T13:36:19Z) - BrepGen: A B-rep Generative Diffusion Model with Structured Latent Geometry [24.779824909395245]
BrepGenは拡散に基づく生成手法であり、境界表現(Breep)コンピュータ支援設計(CAD)モデルを直接出力する。
BrepGenは、階層木における新しい構造付き潜在幾何学としてB-repモデルを表す。
論文 参考訳(メタデータ) (2024-01-28T04:07:59Z) - GEC-DePenD: Non-Autoregressive Grammatical Error Correction with
Decoupled Permutation and Decoding [52.14832976759585]
文法的誤り訂正(GEC)は、通常自己回帰的なシーケンス・ツー・シーケンスモデルで解決される重要なNLPタスクである。
本稿では, アーキテクチャを置換ネットワークに分離する, GEC に対する非自己回帰的アプローチを提案する。
GECの既知の非自己回帰手法よりもネットワークが向上することを示す。
論文 参考訳(メタデータ) (2023-11-14T14:24:36Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。