論文の概要: Multi-scale Autoregressive Models are Laplacian, Discrete, and Latent Diffusion Models in Disguise
- arxiv url: http://arxiv.org/abs/2510.02826v1
- Date: Fri, 03 Oct 2025 09:05:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.326788
- Title: Multi-scale Autoregressive Models are Laplacian, Discrete, and Latent Diffusion Models in Disguise
- Title(参考訳): マルチスケール自己回帰モデルは、分散におけるラプラシアン、離散および潜在拡散モデルである
- Authors: Steve Hong, Samuel Belkadi,
- Abstract要約: 反復リファインメントフレームワークのレンズを通して、Visual Auto Regressiveモデルを再考する。
我々はこれをラプラシア様式の潜伏ピラミッドを構成する決定論的前方過程として定式化し、学習された後方過程と組み合わせて少数の粗大なステップで再構成する。
- 参考スコア(独自算出の注目度): 0.6875312133832079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit Visual Autoregressive (VAR) models through the lens of an iterative-refinement framework. Rather than viewing VAR solely as next-scale autoregression, we formalise it as a deterministic forward process that constructs a Laplacian-style latent pyramid, paired with a learned backward process that reconstructs it in a small number of coarse-to-fine steps. This view connects VAR to denoising diffusion and isolates three design choices that help explain its efficiency and fidelity: refining in a learned latent space, casting prediction as discrete classification over code indices, and partitioning the task by spatial frequency. We run controlled experiments to quantify each factor's contribution to fidelity and speed, and we outline how the same framework extends to permutation-invariant graph generation and to probabilistic, ensemble-style medium-range weather forecasting. The framework also suggests practical interfaces for VAR to leverage tools from the diffusion ecosystem while retaining few-step, scale-parallel generation.
- Abstract(参考訳): 反復リファインメントフレームワークのレンズを通して、ビジュアルオートレグレッシブ(VAR)モデルを再検討する。
VARを次のスケールの自己回帰と見なすのではなく、ラプラシア様式の潜伏ピラミッドを構成する決定論的前方過程として定式化し、学習された後方過程と組み合わせて少数の粗いステップで再構成する。
この見解は、VARを拡散を認知させ、その効率性と忠実さを説明する3つの設計選択を分離する。
我々は,各因子の忠実度と速度に対する貢献度を定量化するために制御された実験を行い,同じフレームワークが置換不変グラフ生成や確率的,アンサンブル的な中距離天気予報にどのように拡張されているかを概説した。
このフレームワークはまた、VARが拡散エコシステムからツールを活用するための実用的なインターフェースを提案し、数ステップのスケール並列生成を維持している。
関連論文リスト
- Scale-Wise VAR is Secretly Discrete Diffusion [48.994983608261286]
次なるスケール予測 Visual Autoregressive Generation (VAR) は、拡散ベースモデルを超えながら、最近顕著な性能を示した。
本稿では,VARを再検討し,マルコフの注意マスクを装着した場合,VARは離散拡散と数学的に等価であることを示す。
本稿では, 繰り返し改良やVARへのアーキテクチャ不効率の低減, 収束の高速化, 推論コストの低減, ゼロショット再構成の改善など, 拡散の利点を直接インポートする方法を示す。
論文 参考訳(メタデータ) (2025-09-26T17:58:04Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - Time Series Forecasting Using Manifold Learning [6.316185724124034]
本研究では,高次元時系列の予測のための多様体学習に基づく3層数値フレームワークを提案する。
最初のステップでは、非線形多様体学習アルゴリズムを用いて、時系列を低次元空間に埋め込む。
2番目のステップでは、埋め込み力学を予測するために、多様体上の低次回帰モデルを構築する。
最後のステップでは、埋め込み時系列を元の高次元空間に戻します。
論文 参考訳(メタデータ) (2021-10-07T17:09:59Z) - A Variational Perspective on Diffusion-Based Generative Models and Score
Matching [8.93483643820767]
連続時間生成拡散の確率推定のための変分フレームワークを導出する。
本研究は,プラグイン逆SDEの可能性の低い境界を最大化することと,スコアマッチング損失の最小化が等価であることを示す。
論文 参考訳(メタデータ) (2021-06-05T05:50:36Z) - Haar Wavelet based Block Autoregressive Flows for Trajectories [129.37479472754083]
歩行者等の軌道予測は,自律型エージェントの性能向上に不可欠である。
本稿では分割結合を利用した新しいハールウェーブレットに基づくブロック自己回帰モデルを提案する。
実世界の2つのデータセット上で、多種多様な正確な軌跡を生成するアプローチの利点について説明する。
論文 参考訳(メタデータ) (2020-09-21T13:57:10Z) - Self-Reflective Variational Autoencoder [21.054722609128525]
変分オートエンコーダ(VAE)は潜在変数生成モデルを学習するための強力なフレームワークである。
自己回帰推論(self-reflective inference)と呼ばれるソリューションを導入します。
実験では, 後部と後部を正確に一致させることの明確な利点を実証的に示す。
論文 参考訳(メタデータ) (2020-07-10T05:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。