論文の概要: MamTiff-CAD: Multi-Scale Latent Diffusion with Mamba+ for Complex Parametric Sequence
- arxiv url: http://arxiv.org/abs/2511.17647v1
- Date: Thu, 20 Nov 2025 07:39:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.326921
- Title: MamTiff-CAD: Multi-Scale Latent Diffusion with Mamba+ for Complex Parametric Sequence
- Title(参考訳): MamTiff-CAD:複合パラメトリックシーケンスのためのMamba+を用いたマルチスケール潜時拡散
- Authors: Liyuan Deng, Yunpeng Bai, Yongkang Dai, Xiaoshui Huang, Hongping Gan, Dongshuo Huang, Hao jiacheng, Yilei Shi,
- Abstract要約: MamTiff-CADはCADパラメトリックコマンドシーケンス生成フレームワークである。
マルチスケールの潜在表現にTransformerベースの拡散モデルを用いる。
実験により,MamTiff-CADは復元作業と生成作業の両方において最先端の性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 34.89364653219628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parametric Computer-Aided Design (CAD) is crucial in industrial applications, yet existing approaches often struggle to generate long sequence parametric commands due to complex CAD models' geometric and topological constraints. To address this challenge, we propose MamTiff-CAD, a novel CAD parametric command sequences generation framework that leverages a Transformer-based diffusion model for multi-scale latent representations. Specifically, we design a novel autoencoder that integrates Mamba+ and Transformer, to transfer parameterized CAD sequences into latent representations. The Mamba+ block incorporates a forget gate mechanism to effectively capture long-range dependencies. The non-autoregressive Transformer decoder reconstructs the latent representations. A diffusion model based on multi-scale Transformer is then trained on these latent embeddings to learn the distribution of long sequence commands. In addition, we also construct a dataset that consists of long parametric sequences, which is up to 256 commands for a single CAD model. Experiments demonstrate that MamTiff-CAD achieves state-of-the-art performance on both reconstruction and generation tasks, confirming its effectiveness for long sequence (60-256) CAD model generation.
- Abstract(参考訳): CAD(Parametric Computer-Aided Design)は産業用途において重要であるが、複雑なCADモデルの幾何学的および位相的制約により、既存のアプローチでは長いシーケンスのパラメトリックコマンドを生成するのに苦労することが多い。
この課題に対処するため,多スケールラテント表現のためのTransformerベースの拡散モデルを利用したCADパラメトリックコマンドシーケンス生成フレームワークであるMamTiff-CADを提案する。
具体的には,Mamba+とTransformerを統合した新しいオートエンコーダを設計し,パラメータ化CADシーケンスを潜在表現に変換する。
Mamba+ブロックは、長距離依存を効果的に捉えるための忘れゲート機構を組み込んでいる。
非自己回帰トランスフォーマーデコーダは、潜在表現を再構成する。
マルチスケールトランスフォーマーに基づく拡散モデルは、これらの潜伏埋め込みに基づいて訓練され、長いシーケンスコマンドの分布を学習する。
さらに,1つのCADモデルに対して256コマンドまでの長いパラメトリックシーケンスからなるデータセットを構築した。
実験により,MamTiff-CADは復元タスクと生成タスクの両方において最先端の性能を達成し,長いシーケンス (60-256) CADモデル生成の有効性を確認した。
関連論文リスト
- GenCAD-3D: CAD Program Generation using Multimodal Latent Space Alignment and Synthetic Dataset Balancing [3.5539239472975583]
我々は,3次元CADプログラムを生成するマルチモーダル生成フレームワークであるGenCAD-3Dを紹介する。
また、データセットのバランスと拡張を目的とした合成データ拡張戦略であるSynthBalも紹介する。
実験の結果,SynthBalは再構成精度を大幅に向上し,無効なCADモデルの生成を低減し,高精度なジオメトリの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-09-17T19:10:44Z) - CADCrafter: Generating Computer-Aided Design Models from Unconstrained Images [69.7768227804928]
CADCrafterは画像からパラメトリックCADモデル生成フレームワークで、合成テクスチャなしCADデータのみをトレーニングする。
多様な幾何学的特徴を正確に捉えるための幾何エンコーダを導入する。
提案手法は、実際の制約のないCADイメージを頑健に処理でき、また、目に見えない汎用オブジェクトにも一般化できる。
論文 参考訳(メタデータ) (2025-04-07T06:01:35Z) - CAD-MLLM: Unifying Multimodality-Conditioned CAD Generation With MLLM [39.113795259823476]
マルチモーダル入力に条件付きパラメトリックCADモデルを生成可能な最初のシステムであるCAD-MLLMを導入する。
先進的な大規模言語モデル (LLM) を用いて,多様なマルチモーダルデータとCADモデルのベクトル化表現に特徴空間を整合させる。
得られたデータセットはOmni-CADと呼ばれ、CADモデル毎にテキスト記述、多視点画像、ポイント、コマンドシーケンスを含む最初のマルチモーダルCADデータセットである。
論文 参考訳(メタデータ) (2024-11-07T18:31:08Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - MatFormer: Nested Transformer for Elastic Inference [91.45687988953435]
MatFormerは、多様なデプロイメント制約にまたがる弾性推論を提供するように設計された、新しいTransformerアーキテクチャである。
MatFormerは、標準的なTransformerモデルにネストフィードフォワードネットワーク(FFN)ブロック構造を組み込むことで、これを実現している。
8億5000万デコーダのみのMatFormer言語モデル(MatLM)により,5億2200万から8億5千万のパラメータにまたがる複数の小さなモデルを抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:14Z) - SkexGen: Autoregressive Generation of CAD Construction Sequences with
Disentangled Codebooks [37.33746656109331]
我々はコンピュータ支援設計(CAD)構築シーケンスのための新しい自己回帰生成モデルであるSkexGenを提案する。
自動回帰トランスフォーマーデコーダは、コードブックベクトルによって指定された特定の特性を共有するCAD構成シーケンスを生成する。
論文 参考訳(メタデータ) (2022-07-11T05:10:51Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。