論文の概要: Fast and Robust Rank Aggregation against Model Misspecification
- arxiv url: http://arxiv.org/abs/1905.12341v2
- Date: Fri, 5 May 2023 08:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 18:50:57.522290
- Title: Fast and Robust Rank Aggregation against Model Misspecification
- Title(参考訳): モデルミス種別に対する高速かつロバストなランクアグリゲーション
- Authors: Yuangang Pan, Weijie Chen, Gang Niu, Ivor W. Tsang, Masashi Sugiyama
- Abstract要約: ランクアグリゲーション(RA)では、異なるユーザからの好みのコレクションを、ユーザの同質性の仮定の下で総順にまとめる。
RAにおけるモデルの不特定は、複素実世界の状況において同質性の仮定が満たされないために生じる。
本稿では,モデル誤特定に対する堅牢性を有するCoarsenRankを提案する。
- 参考スコア(独自算出の注目度): 105.54181634234266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In rank aggregation (RA), a collection of preferences from different users
are summarized into a total order under the assumption of homogeneity of users.
Model misspecification in RA arises since the homogeneity assumption fails to
be satisfied in the complex real-world situation. Existing robust RAs usually
resort to an augmentation of the ranking model to account for additional
noises, where the collected preferences can be treated as a noisy perturbation
of idealized preferences. Since the majority of robust RAs rely on certain
perturbation assumptions, they cannot generalize well to agnostic
noise-corrupted preferences in the real world. In this paper, we propose
CoarsenRank, which possesses robustness against model misspecification.
Specifically, the properties of our CoarsenRank are summarized as follows: (1)
CoarsenRank is designed for mild model misspecification, which assumes there
exist the ideal preferences (consistent with model assumption) that locates in
a neighborhood of the actual preferences. (2) CoarsenRank then performs regular
RAs over a neighborhood of the preferences instead of the original dataset
directly. Therefore, CoarsenRank enjoys robustness against model
misspecification within a neighborhood. (3) The neighborhood of the dataset is
defined via their empirical data distributions. Further, we put an exponential
prior on the unknown size of the neighborhood, and derive a much-simplified
posterior formula for CoarsenRank under particular divergence measures. (4)
CoarsenRank is further instantiated to Coarsened Thurstone, Coarsened
Bradly-Terry, and Coarsened Plackett-Luce with three popular probability
ranking models. Meanwhile, tractable optimization strategies are introduced
with regards to each instantiation respectively. In the end, we apply
CoarsenRank on four real-world datasets.
- Abstract(参考訳): ランクアグリゲーション(ra)では、異なるユーザからの選好の集まりを、ユーザの均質性を仮定して総順序にまとめる。
raにおけるモデル誤特定は、複雑な実世界の状況において同質性仮定が満足できないために生じる。
既存のロバストなRAは、通常、追加のノイズを考慮するためにランキングモデルの強化を頼りにしており、そこで収集された嗜好は理想化された嗜好の騒々しい摂動として扱うことができる。
頑健なRAの大多数は特定の摂動仮定に頼っているため、実世界ではノイズを伴わない選好を一般化することはできない。
本稿では,モデル誤特定に対する堅牢性を有するCoarsenRankを提案する。
具体的には,CoarsenRankの特性を次のように要約する。 1) CoarsenRankは,実際の嗜好の近傍に位置する理想的な選好(モデル仮定との整合性)が存在すると仮定した,軽度のモデルミススペクテーションのために設計されている。
2) CoarsenRankは、元のデータセットを直接ではなく、好みの近傍で正規のRAを実行する。
そのため、CoarsenRankは、地区内でのモデルの不特定に対して堅牢性を持っている。
(3)データセットの近傍は経験的データ分布によって定義される。
さらに, 近傍の未知の大きさに指数関数を前置し, 特に発散測度において, より単純化された後続式を導出する。
(4)Coarsened Thurstone、Coarsened Bradly-Terry、Coarsened Plackett-Luceは3つの一般的な確率ランキングモデルでインスタンス化される。
また、それぞれのインスタンス化に関して、扱いやすい最適化戦略を導入する。
最後に、実世界の4つのデータセットにCoarsenRankを適用する。
関連論文リスト
- Random Models for Fuzzy Clustering Similarity Measures [0.0]
Adjusted Rand Index (ARI) は、ハードクラスタリングを比較するために広く使われている手法である。
本稿では,ハードクラスタリングとファジィクラスタリングの両方に対して直感的で説明可能な3つのランダムモデルを用いて,ARIを計算するための単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-16T00:07:04Z) - Robust Estimation of Causal Heteroscedastic Noise Models [7.568978862189266]
学生の$t$-distributionは、より小さなサンプルサイズと極端な値で、全体の分布形態を著しく変えることなく、サンプル変数をサンプリングすることの堅牢さで知られている。
我々の経験的評価は、我々の推定器はより堅牢で、合成ベンチマークと実ベンチマークの総合的な性能が向上していることを示している。
論文 参考訳(メタデータ) (2023-12-15T02:26:35Z) - The Decaying Missing-at-Random Framework: Doubly Robust Causal Inference
with Partially Labeled Data [10.021381302215062]
現実のシナリオでは、データ収集の制限によって部分的にラベル付けされたデータセットが生成されることが多く、信頼性の高い因果推論の描画が困難になる。
半パラメトリック(SS)や欠落したデータ文学における従来のアプローチは、これらの複雑さを適切に扱えないため、偏りのある見積もりにつながる可能性がある。
このフレームワークは、高次元設定における欠落した結果に対処し、選択バイアスを考慮に入れます。
論文 参考訳(メタデータ) (2023-05-22T07:37:12Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - BRIO: Bringing Order to Abstractive Summarization [107.97378285293507]
非決定論的分布を前提とした新しい学習パラダイムを提案する。
提案手法は, CNN/DailyMail (47.78 ROUGE-1) と XSum (49.07 ROUGE-1) のデータセット上で, 最新の結果が得られる。
論文 参考訳(メタデータ) (2022-03-31T05:19:38Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Learning Inconsistent Preferences with Gaussian Processes [14.64963271587818]
我々は,Chuらによる優先的なガウス過程を再考し,潜在ユーティリティ関数の値を通じてデータ項目のランク付けを強制するモデル化の仮定に挑戦する。
本稿では、より表現力のある遅延優先構造をデータ中に捉えることのできるpgpの一般化を提案する。
実験結果から, ランキングビリティの侵害は, 現実の優先データにおいてユビキタスである可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-06T11:57:45Z) - Robust M-Estimation Based Bayesian Cluster Enumeration for Real
Elliptically Symmetric Distributions [5.137336092866906]
データセットにおける最適なクラスタ数のロバストな決定は、広範囲のアプリケーションにおいて必須の要素である。
本稿では任意のReally Symmetric(RES)分散混合モデルで使用できるように一般化する。
サンプルサイズが有限であるデータセットに対して,ロバストな基準を導出するとともに,大規模なサンプルサイズでの計算コスト削減のための近似を提供する。
論文 参考訳(メタデータ) (2020-05-04T11:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。