論文の概要: Learning Permutation Distributions via Reflected Diffusion on Ranks
- arxiv url: http://arxiv.org/abs/2603.17353v1
- Date: Wed, 18 Mar 2026 04:28:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.50958
- Title: Learning Permutation Distributions via Reflected Diffusion on Ranks
- Title(参考訳): ランク上の反射拡散による置換分布の学習
- Authors: Sizhuang He, Yangtian Zhang, Shiyang Zhang, David van Dijk,
- Abstract要約: 本稿では,シャッフルベースの汚職をソフトランクフォワードプロセスに置き換える離散拡散フレームワークを提案する。
実験により、ソフトランク拡散は先行拡散ベースラインよりも一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 6.107905126312009
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The finite symmetric group S_n provides a natural domain for permutations, yet learning probability distributions on S_n is challenging due to its factorially growing size and discrete, non-Euclidean structure. Recent permutation diffusion methods define forward noising via shuffle-based random walks (e.g., riffle shuffles) and learn reverse transitions with Plackett-Luce (PL) variants, but the resulting trajectories can be abrupt and increasingly hard to denoise as n grows. We propose Soft-Rank Diffusion, a discrete diffusion framework that replaces shuffle-based corruption with a structured soft-rank forward process: we lift permutations to a continuous latent representation of order by relaxing discrete ranks into soft ranks, yielding smoother and more tractable trajectories. For the reverse process, we introduce contextualized generalized Plackett-Luce (cGPL) denoisers that generalize prior PL-style parameterizations and improve expressivity for sequential decision structures. Experiments on sorting and combinatorial optimization benchmarks show that Soft-Rank Diffusion consistently outperforms prior diffusion baselines, with particularly strong gains in long-sequence and intrinsically sequential settings.
- Abstract(参考訳): 有限対称群 S_n は置換の自然な領域を提供するが、S_n 上の確率分布の学習は、その因子的に増大する大きさと非ユークリッド構造のために困難である。
最近の置換拡散法では、シャッフルベースのランダムウォーク(例えば、リッフルシャッフル)を介してフォワードノイズを定義し、プラケット=リュック(PL)変種で逆遷移を学習するが、結果として生じる軌道は、n が成長するにつれて突然に進行し難くなる。
我々は,シャッフルベースの汚職を構造化されたソフトランクフォワードプロセスに置き換える離散拡散フレームワークであるソフトランク拡散(Soft-Rank Diffusion)を提案する。
逆プロセスでは、文脈一般化された一般化されたPlanet-Luce(cGPL)デノイザを導入し、PLスタイルのパラメータ化を一般化し、シーケンシャルな決定構造に対する表現性を向上させる。
ソートと組合せ最適化のベンチマーク実験により、Soft-Rank Diffusionは、特に長いシーケンスや本質的に連続した設定において、前回の拡散ベースラインよりも一貫して優れていたことが示されている。
関連論文リスト
- Differentiable Knapsack and Top-k Operators via Dynamic Programming [10.762219154434709]
Knapsack と Top-k 演算子は変数の離散部分集合を選択するのに有用である。
我々はこれらの演算子を動的プログラムとしてキャストする統一的なフレームワークを提案し、微分可能な緩和を導出する。
アルゴリズム面では、決定論的パスとフォワードパスの両方をサポートする効率的なアルゴリズムを開発する。
理論面では、シャノンエントロピーが置換同変作用素をもたらす唯一の正規化選択であることを示す。
論文 参考訳(メタデータ) (2026-01-29T14:25:35Z) - An Elementary Approach to Scheduling in Generative Diffusion Models [55.171367482496755]
生成拡散モデルにおけるノイズスケジューリングと時間離散化の影響を特徴付けるための基礎的手法を開発した。
異なるデータセットと事前訓練されたモデルにわたる実験により、我々のアプローチによって選択された時間離散化戦略が、ベースラインとサーチベースの戦略を一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-20T05:06:26Z) - Spanning Tree Autoregressive Visual Generation [51.7635842702602]
本稿では,Spanning Tree Autoregressive (STAR) モデリングについて述べる。
論文 参考訳(メタデータ) (2025-11-21T09:45:17Z) - Permutation Randomization on Nonsmooth Nonconvex Optimization: A Theoretical and Experimental Study [15.960271016276447]
ランダム化を組み込んだ勾配ベースのネットワークは、複雑な最適化よりも優れた性能を示すことが多い。
置換ランダム化は勾配に基づく振る舞いを妨害する。
置換ランダム化は基礎となる基底線の収束を保存することができる。
論文 参考訳(メタデータ) (2025-05-16T23:28:38Z) - A Unified Analysis of Stochastic Gradient Descent with Arbitrary Data Permutations and Beyond [7.325166704015515]
我々は、置換に基づくグラディエントDescent(SGD)のための統一収束解析を提供することを目指している。
既存の置換に基づくSGDアルゴリズムは、任意置換、独立置換、一置換、依存置換の4つのカテゴリに分類される。
提案手法は, 任意の例の置換を施した置換型SGDの統一フレームワークを開発し, 上記の代表アルゴリズムをすべて取り入れた。
論文 参考訳(メタデータ) (2025-01-27T15:07:02Z) - SymmetricDiffusers: Learning Discrete Diffusion on Finite Symmetric Groups [14.925722398371498]
本稿では,S_n$以上の複雑な分布を学習するタスクを単純化する離散拡散モデルを提案する。
有限群上のランダムウォークの理論に基づいて拡散長を選択するための経験的ガイドラインを提供する。
本モデルでは,4桁画像のソート,ジグソーパズル,旅行セールスマン問題などの課題に対して,最先端ないし同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-03T19:37:40Z) - Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion [61.03681839276652]
拡散強制(Diffusion Forcing)は、拡散モデルをトレーニングし、トークンの集合に独立した音レベルを付与する、新たなトレーニングパラダイムである。
因果的次トーケン予測モデルを訓練して1つまたは複数の未来のトークンを生成することで、シーケンス生成モデルに拡散強制を適用する。
論文 参考訳(メタデータ) (2024-07-01T15:43:25Z) - TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient
Clipping [69.9674326582747]
そこで本研究では,重み付き分散雑音を用いたスムーズな凸最適化のための,クリップ付きSSTMと呼ばれる新しい1次高速化手法を提案する。
この場合、最先端の結果を上回る新たな複雑さが証明される。
本研究は,SGDにおいて,ノイズに対する光細かな仮定を伴わずにクリッピングを施した最初の非自明な高確率複雑性境界を導出した。
論文 参考訳(メタデータ) (2020-05-21T17:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。