論文の概要: AGDC: Autoregressive Generation of Variable-Length Sequences with Joint Discrete and Continuous Spaces
- arxiv url: http://arxiv.org/abs/2601.05680v1
- Date: Fri, 09 Jan 2026 09:57:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.938488
- Title: AGDC: Autoregressive Generation of Variable-Length Sequences with Joint Discrete and Continuous Spaces
- Title(参考訳): AGDC: 共同離散空間と連続空間を持つ可変長系列の自動回帰生成
- Authors: Yeonsang Shin, Insoo Kim, Bongkeun Kim, Keonwoo Bae, Bohyung Han,
- Abstract要約: トランスフォーマーベースの自己回帰モデルはデータ生成に優れるが、識別トークンへの依存によって本質的に制約される。
本稿では,従来の離散化に基づくハイブリッド離散連続列生成手法のスケーラビリティ限界を解析する。
可変長列の離散値と連続値とを連立でモデル化する新しい統合フレームワーク AGDC を提案する。
- 参考スコア(独自算出の注目度): 33.91616464118993
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transformer-based autoregressive models excel in data generation but are inherently constrained by their reliance on discretized tokens, which limits their ability to represent continuous values with high precision. We analyze the scalability limitations of existing discretization-based approaches for generating hybrid discrete-continuous sequences, particularly in high-precision domains such as semiconductor circuit designs, where precision loss can lead to functional failure. To address the challenge, we propose AGDC, a novel unified framework that jointly models discrete and continuous values for variable-length sequences. AGDC employs a hybrid approach that combines categorical prediction for discrete values with diffusion-based modeling for continuous values, incorporating two key technical components: an end-of-sequence (EOS) logit adjustment mechanism that uses an MLP to dynamically adjust EOS token logits based on sequence context, and a length regularization term integrated into the loss function. Additionally, we present ContLayNet, a large-scale benchmark comprising 334K high-precision semiconductor layout samples with specialized evaluation metrics that capture functional correctness where precision errors significantly impact performance. Experiments on semiconductor layouts (ContLayNet), graphic layouts, and SVGs demonstrate AGDC's superior performance in generating high-fidelity hybrid vector representations compared to discretization-based and fixed-schema baselines, achieving scalable high-precision generation across diverse domains.
- Abstract(参考訳): トランスフォーマーベースの自己回帰モデルはデータ生成に優れるが、離散化トークンへの依存によって本質的に制約されるため、高い精度で連続的な値を表現する能力は制限される。
本稿では,半導体回路設計などの高精度領域において,従来の離散化に基づくハイブリッド離散連続列生成手法のスケーラビリティ限界を分析する。
この課題に対処するため、可変長列の離散値と連続値の連成モデルであるAGDCを提案する。
AGDCは、離散値のカテゴリ予測と連続値の拡散に基づくモデリングを組み合わせたハイブリッドなアプローチを採用しており、2つの重要な技術要素を取り入れている: シーケンスコンテキストに基づいて、MLPを使用してEOSトークンのロジットを動的に調整するエンド・オブ・シーケンス(EOS)ロジット調整機構と、ロス関数に統合された長さ正規化項である。
さらに,334Kの高精度半導体レイアウトサンプルからなる大規模ベンチマークであるContLayNetについて,精度誤差が性能に著しく影響を及ぼす機能的正しさを計測する特化評価指標を提案する。
半導体レイアウト(ContLayNet)、グラフィックレイアウト、SVGの実験は、離散化ベースおよび固定スキーマベースラインよりも高忠実なハイブリッドベクトル表現を生成するAGDCの優れた性能を示し、多様な領域にわたってスケーラブルな高精度生成を実現する。
関連論文リスト
- HoMer: Addressing Heterogeneities by Modeling Sequential and Set-wise Contexts for CTR Prediction [10.779868699316829]
逐次的および集合的コンテキストをモデル化するためのホモジニアス指向トランスフォーマーであるHoMerを提案する。
HoMerは、AUCメトリックで工業ベースラインを0.0099向上させ、CTR/RPMのようなオンラインビジネスメトリクスを1.99%/2.46%向上させています。
論文 参考訳(メタデータ) (2025-10-13T07:47:03Z) - UniMRSeg: Unified Modality-Relax Segmentation via Hierarchical Self-Supervised Compensation [104.59740403500132]
マルチモーダルイメージセグメンテーションは、不完全/破損したモダリティの劣化による実際のデプロイメント課題に直面している。
階層型自己教師型補償(HSSC)による統一Modality-relaxセグメンテーションネットワーク(UniMRSeg)を提案する。
我々のアプローチは、入力レベル、特徴レベル、出力レベルをまたいだ完全なモダリティと不完全なモダリティの間の表現ギャップを階層的に橋渡しします。
論文 参考訳(メタデータ) (2025-09-19T17:29:25Z) - Progressive Element-wise Gradient Estimation for Neural Network Quantization [2.1413624861650358]
量子化アウェアトレーニング(QAT)法は、離散化関数の非微分可能性に対処するためにSTE(Straight-Through Estimator)に依存する。
本稿では,連続値と量子化値の離散化誤差に対処するため,PEGE(Progressive Element-wise Gradient Estimation)を提案する。
PEGEは、既存のバックプロパゲーション手法を一貫して上回り、低精度のモデルが彼らの完全精度の精度にマッチしたり、さらに上回ったりすることを可能にしている。
論文 参考訳(メタデータ) (2025-08-27T15:59:36Z) - Scalable and Effective Negative Sample Generation for Hyperedge Prediction [55.9298019975967]
ハイパーエッジ予測は、Webベースのアプリケーションにおける複雑なマルチエンタリティ相互作用を理解するために不可欠である。
従来の手法では、正と負のインスタンスの不均衡により、高品質な負のサンプルを生成するのが困難であることが多い。
本稿では,これらの課題に対処するために拡散モデルを利用するハイパーエッジ予測(SEHP)フレームワークのスケーラブルで効果的な負のサンプル生成について述べる。
論文 参考訳(メタデータ) (2024-11-19T09:16:25Z) - FOVAL: Calibration-Free and Subject-Invariant Fixation Depth Estimation Across Diverse Eye-Tracking Datasets [0.0]
深度推定に対するロバストなキャリブレーションフリーアプローチであるFOVALを導入する。
変換器、時空間ネットワーク(TCN)、CNNと比較して、FOVALは優れた性能を発揮する。
LOOCV(Leave-One-Out Cross-Validation)とクロスデータセットバリデーション(cross-dataset Validation)を用いた3つのベンチマークデータセットに対する評価は、平均絶対誤差(MAE)が9.1cmであり、キャリブレーションなしでの強い一般化を示している。
論文 参考訳(メタデータ) (2024-08-07T07:09:14Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Self-Guided Adaptation: Progressive Representation Alignment for Domain
Adaptive Object Detection [86.69077525494106]
非教師なしドメイン適応(UDA)は、オブジェクト検出モデルのドメイン間ロバスト性を改善するために前例のない成功を収めた。
既存のUDA手法は、モデル学習中の瞬間的なデータ分布を無視しており、大きなドメインシフトによって特徴表現が劣化する可能性がある。
本稿では、特徴表現の整合とドメイン間のオブジェクト検出モデルの転送を目標とする自己ガイド適応モデルを提案する。
論文 参考訳(メタデータ) (2020-03-19T13:30:45Z) - Elastic Consistency: A General Consistency Model for Distributed
Stochastic Gradient Descent [28.006781039853575]
近年の機械学習の進歩を支える重要な要素は、大規模な分散メモリ環境で機械学習モデルをトレーニングする能力である。
本稿では,大規模機械学習モデルの学習に使用される一般収束手法を提案する。
我々のフレームワークは弾性弾性境界と呼ばれ、様々な分散SGD法に対する収束境界を導出することができる。
論文 参考訳(メタデータ) (2020-01-16T16:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。