論文の概要: Beyond Kemeny Medians: Consensus Ranking Distributions Definition, Properties and Statistical Learning
- arxiv url: http://arxiv.org/abs/2602.10640v1
- Date: Wed, 11 Feb 2026 08:41:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.601419
- Title: Beyond Kemeny Medians: Consensus Ranking Distributions Definition, Properties and Statistical Learning
- Title(参考訳): ケメニー・メディアを超えて: コンセンサス・ランキングの分布の定義、特性、統計的学習
- Authors: Stephan Clémençon, Ekhine Irurozki,
- Abstract要約: 本稿では,Diracのマスを$mathfrakS_n$で混合した疎混合モデルであるtextitconsensus ranking distribution(crd$)について紹介する。
コスト関数として人気の高いKendall $$ distanceを選択することで、最適歪みをペアの確率の関数として表現できることを示す。
本稿では、ランキングデータに基づくCRDの漸進的な改善を可能にするトップダウン木構造統計アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.745827783449186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article we develop a new method for summarizing a ranking distribution, \textit{i.e.} a probability distribution on the symmetric group $\mathfrak{S}_n$, beyond the classical theory of consensus and Kemeny medians. Based on the notion of \textit{local ranking median}, we introduce the concept of \textit{consensus ranking distribution} ($\crd$), a sparse mixture model of Dirac masses on $\mathfrak{S}_n$, in order to approximate a ranking distribution with small distortion from a mass transportation perspective. We prove that by choosing the popular Kendall $τ$ distance as the cost function, the optimal distortion can be expressed as a function of pairwise probabilities, paving the way for the development of efficient learning methods that do not suffer from the lack of vector space structure on $\mathfrak{S}_n$. In particular, we propose a top-down tree-structured statistical algorithm that allows for the progressive refinement of a CRD based on ranking data, from the Dirac mass at a Kemeny median at the root of the tree to the empirical ranking data distribution itself at the end of the tree's exhaustive growth. In addition to the theoretical arguments developed, the relevance of the algorithm is empirically supported by various numerical experiments.
- Abstract(参考訳): 本稿では、古典的なコンセンサス理論とケメニー中央値の他に、対称群 $\mathfrak{S}_n$ 上の確率分布である階数分布 \textit{i.e.} を要約する新しい方法を開発する。
ここでは,<textit{local ranking median} の概念を基礎として,<textit{consensus ranking distribution} (\crd$) の概念を導入し,質量輸送の観点からの小さな歪みでランク分布を近似するために,$\mathfrak{S}_n$ 上の Dirac 質量のスパース混合モデルを提案する。
コスト関数として人気の高いKendall $τ$ 距離を選択することで、最適歪みをペアの確率関数として表現することができ、$\mathfrak{S}_n$上のベクトル空間構造の欠如に悩まされない効率的な学習手法を開発するための道を開くことができる。
特に,木根中央のケメニー中央のディラック質量から,枯渇した木の成長の終わりにおける経験的ランキングデータ分布まで,ランキングデータに基づくCRDの漸進的改善を可能にするトップダウン木構造統計アルゴリズムを提案する。
理論的な議論に加え、アルゴリズムの妥当性は様々な数値実験によって実証的に支持されている。
関連論文リスト
- Robust Barycenter Estimation using Semi-Unbalanced Neural Optimal Transport [84.51977664336056]
本研究では、ロバストな連続バリセンタを推定するための新しいスケーラブルなアプローチを提案する。
提案手法は min-max 最適化問題であり,一般的なコスト関数に適用可能である。
論文 参考訳(メタデータ) (2024-10-04T23:27:33Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - On Ranking-based Tests of Independence [0.0]
2つの確率変数 $mathbfX$ と $mathbfY$ の独立性をテストするための新しい非パラメトリックフレームワークを開発する。
我々は、ROC空間の対角線から逸脱して独立性テストを構築する様々な方法を含む幅広い階級統計を考察する。
論文 参考訳(メタデータ) (2024-03-12T10:00:00Z) - Classification Tree Pruning Under Covariate Shift [7.982668978293684]
分類木,すなわち,バイアスと分散のバランスをとるのに適した部分木を選択するという問題を考える。
このような状況下では、クロスバリデーションや他のペナル化変種が著しく不十分である場合に、最適なプルーニングを行うための最初の効率的な手順を提示する。
論文 参考訳(メタデータ) (2023-05-07T17:08:21Z) - Replicable Clustering [57.19013971737493]
我々は,統計学的な$k$-medians,統計学的な$k$-means,統計学的な$k$-centers問題のアルゴリズムをブラックボックス方式で近似ルーチンを用いて提案する。
理論的結果を検証するブラックボックスとしてsklearnの$k$-means++実装を用いた2次元合成分布の実験も行っている。
論文 参考訳(メタデータ) (2023-02-20T23:29:43Z) - Statistical Depth Functions for Ranking Distributions: Definitions,
Statistical Learning and Applications [3.7564482287844205]
中央値/合意の概念は、ランキングデータの統計的要約を提供するために広く研究されてきた。
本論文の目的は,そのような量に基づいて,量子論,階数,統計学的な手順のアナログを定義することである。
論文 参考訳(メタデータ) (2022-01-20T10:30:56Z) - Probability Distribution on Full Rooted Trees [2.1506382989223782]
データ圧縮、画像処理、機械学習では、完全なルートツリーはランダム変数ではない。
これを解決する方法の1つは、全根木上の事前分布を仮定することである。
本稿では,全根樹群における確率分布を提案する。
論文 参考訳(メタデータ) (2021-09-27T06:51:35Z) - Robust Learning of Optimal Auctions [84.13356290199603]
本研究では、入札者の評価値のサンプルを逆向きに破損させたり、逆向きに歪んだ分布から引き出すことができる場合に、サンプルから収益-最適マルチバイダオークションを学習する問題について検討する。
我々は,コルモゴロフ-スミルノフ距離における元の分布に対して$alpha$-closeの「全ての真の分布」に対して,収入がほぼ同時に最適であるメカニズムを学習できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-13T17:37:21Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。