論文の概要: Target-Guided Bayesian Flow Networks for Quantitatively Constrained CAD Generation
- arxiv url: http://arxiv.org/abs/2510.25163v1
- Date: Wed, 29 Oct 2025 04:49:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.083402
- Title: Target-Guided Bayesian Flow Networks for Quantitatively Constrained CAD Generation
- Title(参考訳): 量的制約付きCAD生成のための目標誘導ベイズ流網
- Authors: Wenhao Zheng, Chenwei Sun, Wenbo Zhang, Jiancheng Lv, Xianggen Liu,
- Abstract要約: 我々は、TGBFN(Target-Guided Bayesian Flow Network)と呼ばれる量的制約付きCAD生成のための新しいフレームワークを提案する。
初めてTGBFNは、離散データ空間ではなく、連続かつ微分可能なパラメータ空間でCADシーケンスの多重モード性を扱う。
我々は,TGBFNが高忠実で条件対応のCADシーケンスを生成する際に,最先端の性能を実現することを示す。
- 参考スコア(独自算出の注目度): 21.976599517202914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative models, such as diffusion models, have shown promising progress in image generation and audio generation via simplified continuity assumptions. However, the development of generative modeling techniques for generating multi-modal data, such as parametric CAD sequences, still lags behind due to the challenges in addressing long-range constraints and parameter sensitivity. In this work, we propose a novel framework for quantitatively constrained CAD generation, termed Target-Guided Bayesian Flow Network (TGBFN). For the first time, TGBFN handles the multi-modality of CAD sequences (i.e., discrete commands and continuous parameters) in a unified continuous and differentiable parameter space rather than in the discrete data space. In addition, TGBFN penetrates the parameter update kernel and introduces a guided Bayesian flow to control the CAD properties. To evaluate TGBFN, we construct a new dataset for quantitatively constrained CAD generation. Extensive comparisons across single-condition and multi-condition constrained generation tasks demonstrate that TGBFN achieves state-of-the-art performance in generating high-fidelity, condition-aware CAD sequences. The code is available at https://github.com/scu-zwh/TGBFN.
- Abstract(参考訳): 拡散モデルのような深層生成モデルは、簡易な連続性仮定による画像生成と音声生成において有望な進歩を示している。
しかし、パラメトリックCADシーケンスなどのマルチモーダルデータを生成するための生成モデリング技術の開発は、長距離制約やパラメータ感度に対処する上での課題により、まだ遅れを取っている。
本研究では,TGBFN(Target-Guided Bayesian Flow Network)と呼ばれる,量的制約のあるCAD生成のための新しいフレームワークを提案する。
初めて、TGBFNは、離散データ空間ではなく、統一された連続かつ微分可能なパラメータ空間においてCADシーケンス(例えば、離散コマンドと連続パラメータ)の多重モジュラリティを処理する。
さらに、TGBFNはパラメータ更新カーネルに侵入し、CAD特性を制御するためのガイド付きベイズフローを導入する。
TGBFNを評価するために,定量的に制約されたCAD生成のための新しいデータセットを構築した。
単一条件および複数条件制約付き生成タスクの大規模な比較は、TGBFNが高忠実で条件対応のCADシーケンスを生成する際に、最先端の性能を達成することを示す。
コードはhttps://github.com/scu-zwh/TGBFNで入手できる。
関連論文リスト
- PointNSP: Autoregressive 3D Point Cloud Generation with Next-Scale Level-of-Detail Prediction [87.33016661440202]
自動回帰ポイントクラウド生成は、長い間、拡散ベースの品質アプローチに遅れを取ってきた。
低解像度で大域的な形状を保った粗大な生成フレームワークであるPointNSPを提案する。
ShapeNetの実験によると、PointNSPは自己回帰パラダイムの中で初めて、最先端(SOTA)生成品質を確立している。
論文 参考訳(メタデータ) (2025-10-07T06:31:02Z) - FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - Revisiting CAD Model Generation by Learning Raster Sketch [17.853025952444437]
本稿では,ラースタースケッチとCADモデルの3次元押出形を生成する新しいフレームワークであるRECADを紹介する。
2つの拡散ネットワークを組み合わせることで、RECADはスケッチ・アンド・エクストルードCADモデルを効果的に生成する。
論文 参考訳(メタデータ) (2025-03-02T15:11:35Z) - Parallel Sequence Modeling via Generalized Spatial Propagation Network [80.66202109995726]
Generalized Spatial Propagation Network (GSPN)は、2次元空間構造を本質的にキャプチャする最適化された視覚タスクのための新しいアテンションメカニズムである。
GSPNは、空間的コヒーレントな画像データを直接操作し、ラインスキャンアプローチを通じて高密度なペアワイズ接続を形成することにより、制限を克服する。
GSPNは、ImageNet分類、クラス誘導画像生成、テキスト・ツー・イメージ生成などの視覚タスクにおいて、より優れた空間忠実性と最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T18:56:19Z) - Recurrent Diffusion for Large-Scale Parameter Generation [52.98888368644455]
リカレント拡散(Recurrent Diffusion for Large Scale Generation)は、単一のGPU上で最大数億のニューラルネットワークパラメータを生成する新しいフレームワークである。
RPGはAI生成において重要な進歩であり、以前は不可能と考えられていたスケールでの効率的な重量生成を可能にする可能性がある。
論文 参考訳(メタデータ) (2025-01-20T16:46:26Z) - CCDM: Continuous Conditional Diffusion Models for Image Generation [22.70942688582302]
条件拡散モデル(CDM)は連続条件生成モデリング(CCGM)に代わる有望な選択肢を提供する
CDMは、特別に設計された条件拡散プロセス、新しいハード・ヴィジナル・イメージ・デノージング・ロス、効率的な条件サンプリング・プロシージャによる既存の制限に対処する。
CCDMは最先端のCCGMモデルより優れており,新たなベンチマークが確立されている。
論文 参考訳(メタデータ) (2024-05-06T15:10:19Z) - Differentially-Private Multi-Tier Federated Learning [14.725823723623213]
多階層差分プライバシーを用いた多階層フェデレーション学習(M2FDP)を提案する。
M2FDPは、階層型ネットワークにおけるプライバシーと性能を協調的に最適化するためのDP強化FL手法である。
論文 参考訳(メタデータ) (2024-01-21T20:46:21Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。