論文の概要: Learning Distributions over Permutations and Rankings with Factorized Representations
- arxiv url: http://arxiv.org/abs/2505.24664v1
- Date: Fri, 30 May 2025 14:53:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.009843
- Title: Learning Distributions over Permutations and Rankings with Factorized Representations
- Title(参考訳): 素因数表現を用いた順列と階数上の分布の学習
- Authors: Daniel Severo, Brian Karrer, Niklas Nolte,
- Abstract要約: 置換よりも分散を学習することは、機械学習の基本的な問題である。
置換に代替表現を利用する新しい手法を提案する。
提案手法は,最短表現モードでも非自明な分布を学習することを示す。
- 参考スコア(独自算出の注目度): 6.51628774380971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning distributions over permutations is a fundamental problem in machine learning, with applications in ranking, combinatorial optimization, structured prediction, and data association. Existing methods rely on mixtures of parametric families or neural networks with expensive variational inference procedures. In this work, we propose a novel approach that leverages alternative representations for permutations, including Lehmer codes, Fisher-Yates draws, and Insertion-Vectors. These representations form a bijection with the symmetric group, allowing for unconstrained learning using conventional deep learning techniques, and can represent any probability distribution over permutations. Our approach enables a trade-off between expressivity of the model family and computational requirements. In the least expressive and most computationally efficient case, our method subsumes previous families of well established probabilistic models over permutations, including Mallow's and the Repeated Insertion Model. Experiments indicate our method significantly outperforms current approaches on the jigsaw puzzle benchmark, a common task for permutation learning. However, we argue this benchmark is limited in its ability to assess learning probability distributions, as the target is a delta distribution (i.e., a single correct solution exists). We therefore propose two additional benchmarks: learning cyclic permutations and re-ranking movies based on user preference. We show that our method learns non-trivial distributions even in the least expressive mode, while traditional models fail to even generate valid permutations in this setting.
- Abstract(参考訳): 置換による分散学習は、ランク付け、組合せ最適化、構造化予測、データアソシエーションといった機械学習の基本的な問題である。
既存の方法は、高価な変動推論手順を持つパラメトリックファミリーやニューラルネットワークの混合に依存している。
そこで本研究では,Lahmer符号,Fisher-Yatesドロー,Insertion-Vectorsなどの置換表現を利用した新しい手法を提案する。
これらの表現は対称群との単射を形成し、従来の深層学習技術を用いて制約のない学習を可能にし、置換による確率分布を表現できる。
我々のアプローチは、モデルファミリの表現性と計算要求との間のトレードオフを可能にする。
最も表現力の低い最も効率的な場合、我々の手法は、マローや反復挿入モデルを含む置換よりも確立された確率モデルの以前の族を仮定する。
実験により,提案手法は,置換学習の共通課題であるジグソーパズルベンチマークにおいて,現在の手法よりも大幅に優れていることが示された。
しかし、このベンチマークは、ターゲットがデルタ分布であるため、学習確率分布を評価する能力に制限がある(つまり、単一の正しい解が存在する)。
そこで,本研究では,巡回順列学習とユーザの好みに基づいた再ランク付けという2つのベンチマークを提案する。
提案手法は,最少表現モードでも非自明な分布を学習する一方で,従来のモデルでは,この設定で有効な置換を生成できないことを示す。
関連論文リスト
- A Diffusion Model Framework for Unsupervised Neural Combinatorial Optimization [7.378582040635655]
現在のディープラーニングアプローチは、正確なサンプル確率を生み出す生成モデルに依存している。
この研究は、この制限を解除し、高度に表現力のある潜在変数モデルを採用する可能性を開放する手法を導入する。
我々は,データフリーなコンビネーション最適化におけるアプローチを実験的に検証し,幅広いベンチマーク問題に対して新しい最先端の手法を実現することを実証した。
論文 参考訳(メタデータ) (2024-06-03T17:55:02Z) - TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - Probabilistic Invariant Learning with Randomized Linear Classifiers [24.485477981244593]
表現的かつ不変だがリソースが少ないランダム性と設計モデルをどのように活用するかを示す。
ランダム化アルゴリズムに着想を得て,Randomized Linears (RLC) と呼ばれる二進分類モデルを提案する。
論文 参考訳(メタデータ) (2023-08-08T17:18:04Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - Scalable Normalizing Flows for Permutation Invariant Densities [0.0]
有望なアプローチは、連続正規化フローを持つ置換不変密度の族を定義する。
この手法の重要なステップであるトレースの計算が、トレーニングと推論の両方で発生する問題を提起する方法を実証する。
我々は、閉じた形跡を与える置換同変変換を定義する別の方法を提案する。
論文 参考訳(メタデータ) (2020-10-07T07:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。