論文の概要: Fast and Robust Rank Aggregation against Model Misspecification
- arxiv url: http://arxiv.org/abs/1905.12341v2
- Date: Fri, 5 May 2023 08:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 18:50:57.522290
- Title: Fast and Robust Rank Aggregation against Model Misspecification
- Title(参考訳): モデルミス種別に対する高速かつロバストなランクアグリゲーション
- Authors: Yuangang Pan, Weijie Chen, Gang Niu, Ivor W. Tsang, Masashi Sugiyama
- Abstract要約: ランクアグリゲーション(RA)では、異なるユーザからの好みのコレクションを、ユーザの同質性の仮定の下で総順にまとめる。
RAにおけるモデルの不特定は、複素実世界の状況において同質性の仮定が満たされないために生じる。
本稿では,モデル誤特定に対する堅牢性を有するCoarsenRankを提案する。
- 参考スコア(独自算出の注目度): 105.54181634234266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In rank aggregation (RA), a collection of preferences from different users
are summarized into a total order under the assumption of homogeneity of users.
Model misspecification in RA arises since the homogeneity assumption fails to
be satisfied in the complex real-world situation. Existing robust RAs usually
resort to an augmentation of the ranking model to account for additional
noises, where the collected preferences can be treated as a noisy perturbation
of idealized preferences. Since the majority of robust RAs rely on certain
perturbation assumptions, they cannot generalize well to agnostic
noise-corrupted preferences in the real world. In this paper, we propose
CoarsenRank, which possesses robustness against model misspecification.
Specifically, the properties of our CoarsenRank are summarized as follows: (1)
CoarsenRank is designed for mild model misspecification, which assumes there
exist the ideal preferences (consistent with model assumption) that locates in
a neighborhood of the actual preferences. (2) CoarsenRank then performs regular
RAs over a neighborhood of the preferences instead of the original dataset
directly. Therefore, CoarsenRank enjoys robustness against model
misspecification within a neighborhood. (3) The neighborhood of the dataset is
defined via their empirical data distributions. Further, we put an exponential
prior on the unknown size of the neighborhood, and derive a much-simplified
posterior formula for CoarsenRank under particular divergence measures. (4)
CoarsenRank is further instantiated to Coarsened Thurstone, Coarsened
Bradly-Terry, and Coarsened Plackett-Luce with three popular probability
ranking models. Meanwhile, tractable optimization strategies are introduced
with regards to each instantiation respectively. In the end, we apply
CoarsenRank on four real-world datasets.
- Abstract(参考訳): ランクアグリゲーション(ra)では、異なるユーザからの選好の集まりを、ユーザの均質性を仮定して総順序にまとめる。
raにおけるモデル誤特定は、複雑な実世界の状況において同質性仮定が満足できないために生じる。
既存のロバストなRAは、通常、追加のノイズを考慮するためにランキングモデルの強化を頼りにしており、そこで収集された嗜好は理想化された嗜好の騒々しい摂動として扱うことができる。
頑健なRAの大多数は特定の摂動仮定に頼っているため、実世界ではノイズを伴わない選好を一般化することはできない。
本稿では,モデル誤特定に対する堅牢性を有するCoarsenRankを提案する。
具体的には,CoarsenRankの特性を次のように要約する。 1) CoarsenRankは,実際の嗜好の近傍に位置する理想的な選好(モデル仮定との整合性)が存在すると仮定した,軽度のモデルミススペクテーションのために設計されている。
2) CoarsenRankは、元のデータセットを直接ではなく、好みの近傍で正規のRAを実行する。
そのため、CoarsenRankは、地区内でのモデルの不特定に対して堅牢性を持っている。
(3)データセットの近傍は経験的データ分布によって定義される。
さらに, 近傍の未知の大きさに指数関数を前置し, 特に発散測度において, より単純化された後続式を導出する。
(4)Coarsened Thurstone、Coarsened Bradly-Terry、Coarsened Plackett-Luceは3つの一般的な確率ランキングモデルでインスタンス化される。
また、それぞれのインスタンス化に関して、扱いやすい最適化戦略を導入する。
最後に、実世界の4つのデータセットにCoarsenRankを適用する。
関連論文リスト
- Generalized Grade-of-Membership Estimation for High-dimensional Locally Dependent Data [6.626575011678484]
混合会員モデルは、調査回答と集団遺伝データの分析に広く利用されている。
ベイジアンMCMC推論のような既存のアプローチはスケーラブルではなく、高次元設定では理論的保証が欠如している。
本稿では,3方向準テンソルを「脂肪」行列に平坦化し,パラメータを推定するための特異値分解を行う,新しい,シンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2024-12-27T18:51:15Z) - Inference at the data's edge: Gaussian processes for modeling and inference under model-dependency, poor overlap, and extrapolation [0.0]
ガウス過程 (GP) はフレキシブルな非線形回帰法である。
これは、予測された(非現実的な)値に対する不確実性を扱うための原則化されたアプローチを提供する。
これは外挿または弱い重なり合いの条件下では特に有用である。
論文 参考訳(メタデータ) (2024-07-15T05:09:50Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Robust Estimation of Causal Heteroscedastic Noise Models [7.568978862189266]
学生の$t$-distributionは、より小さなサンプルサイズと極端な値で、全体の分布形態を著しく変えることなく、サンプル変数をサンプリングすることの堅牢さで知られている。
我々の経験的評価は、我々の推定器はより堅牢で、合成ベンチマークと実ベンチマークの総合的な性能が向上していることを示している。
論文 参考訳(メタデータ) (2023-12-15T02:26:35Z) - The Decaying Missing-at-Random Framework: Doubly Robust Causal Inference
with Partially Labeled Data [10.021381302215062]
現実のシナリオでは、データ収集の制限によって部分的にラベル付けされたデータセットが生成されることが多く、信頼性の高い因果推論の描画が困難になる。
半パラメトリック(SS)や欠落したデータ文学における従来のアプローチは、これらの複雑さを適切に扱えないため、偏りのある見積もりにつながる可能性がある。
このフレームワークは、高次元設定における欠落した結果に対処し、選択バイアスを考慮に入れます。
論文 参考訳(メタデータ) (2023-05-22T07:37:12Z) - BRIO: Bringing Order to Abstractive Summarization [107.97378285293507]
非決定論的分布を前提とした新しい学習パラダイムを提案する。
提案手法は, CNN/DailyMail (47.78 ROUGE-1) と XSum (49.07 ROUGE-1) のデータセット上で, 最新の結果が得られる。
論文 参考訳(メタデータ) (2022-03-31T05:19:38Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Learning Inconsistent Preferences with Gaussian Processes [14.64963271587818]
我々は,Chuらによる優先的なガウス過程を再考し,潜在ユーティリティ関数の値を通じてデータ項目のランク付けを強制するモデル化の仮定に挑戦する。
本稿では、より表現力のある遅延優先構造をデータ中に捉えることのできるpgpの一般化を提案する。
実験結果から, ランキングビリティの侵害は, 現実の優先データにおいてユビキタスである可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-06T11:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。