論文の概要: Learning Mixtures of Random Utility Models with Features from Incomplete
Preferences
- arxiv url: http://arxiv.org/abs/2006.03869v3
- Date: Mon, 2 May 2022 21:35:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:06:38.261828
- Title: Learning Mixtures of Random Utility Models with Features from Incomplete
Preferences
- Title(参考訳): 不完全選好から特徴を持つランダム効用モデルの混合学習
- Authors: Zhibing Zhao, Ao Liu, Lirong Xia
- Abstract要約: それぞれの代替品が、おそらくエージェント間で異なる、機能のベクターを持つような、機能とそれらの混合を伴うRUMについて検討する。
我々はRUMと特徴の混合を不完全な嗜好を生成し、その識別性を特徴づけるモデルに拡張する。
本実験は,PL上でのMLEの有効性を示すものであり,統計効率と計算効率のトレードオフがある。
- 参考スコア(独自算出の注目度): 34.50516583809234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Random Utility Models (RUMs), which subsume Plackett-Luce model (PL) as a
special case, are among the most popular models for preference learning. In
this paper, we consider RUMs with features and their mixtures, where each
alternative has a vector of features, possibly different across agents. Such
models significantly generalize the standard PL and RUMs, but are not as well
investigated in the literature. We extend mixtures of RUMs with features to
models that generate incomplete preferences and characterize their
identifiability. For PL, we prove that when PL with features is identifiable,
its MLE is consistent with a strictly concave objective function under mild
assumptions, by characterizing a bound on root-mean-square-error (RMSE), which
naturally leads to a sample complexity bound. We also characterize
identifiability of more general RUMs with features and propose a generalized
RBCML to learn them. Our experiments on synthetic data demonstrate the
effectiveness of MLE on PL with features with tradeoffs between statistical
efficiency and computational efficiency. Our experiments on real-world data
show the prediction power of PL with features and its mixtures.
- Abstract(参考訳): 特別な場合としてplacett-luce model(pl)を代用するランダムユーティリティモデル(rums)は、選好学習において最も人気のあるモデルである。
本稿では,それぞれの選択肢が特徴量ベクトルを持ち,おそらくエージェント間で異なる特徴量を持つ,特徴量とそれらの混合量を持つラムについて考察する。
このようなモデルは標準PLとRUMを著しく一般化するが、文献ではあまり研究されていない。
我々はRUMと特徴の混合を不完全な嗜好を生成し、その識別性を特徴づけるモデルに拡張する。
PL の場合、特徴を持つ PL が識別可能である場合、その MLE はルート平均二乗誤差 (RMSE) 上の境界を特徴付けることによって、厳密な対物関数と一致することが証明される。
また、より一般的なRUMの特徴を特徴付け、それらを学ぶための汎用RBCMLを提案する。
本実験は,PL上でのMLEの有効性を示すものであり,統計効率と計算効率のトレードオフがある。
実世界データを用いた実験では,plの予測能力と特徴量および混合特性を示す。
関連論文リスト
- Extrapolative ML Models for Copolymers [1.901715290314837]
機械学習モデルは、材料特性の予測に徐々に使われてきた。
これらのモデルは本質的に補間的であり、物質の既知の特性範囲外の候補を探索するための有効性は未解決である。
本稿では,MLモデルの外挿能力,トレーニングデータセットのサイズと範囲,学習アプローチとの関係について検討する。
論文 参考訳(メタデータ) (2024-09-15T11:02:01Z) - On Least Square Estimation in Softmax Gating Mixture of Experts [78.3687645289918]
決定論的MoEモデルに基づく最小二乗推定器(LSE)の性能について検討する。
我々は,多種多様な専門家関数の収束挙動を特徴付けるために,強い識別可能性という条件を確立する。
本研究は,専門家の選択に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-02-05T12:31:18Z) - Sample Complexity Characterization for Linear Contextual MDPs [67.79455646673762]
文脈決定プロセス(CMDP)は、遷移カーネルと報酬関数がコンテキスト変数によってインデックス付けされた異なるMDPで時間とともに変化できる強化学習のクラスを記述する。
CMDPは、時間とともに変化する環境で多くの現実世界のアプリケーションをモデル化するための重要なフレームワークとして機能する。
CMDPを2つの線形関数近似モデルで検討する: 文脈変化表現とすべての文脈に対する共通線形重み付きモデルIと、すべての文脈に対する共通表現と文脈変化線形重み付きモデルIIである。
論文 参考訳(メタデータ) (2024-02-05T03:25:04Z) - RUMBoost: Gradient Boosted Random Utility Models [0.0]
RUMBoostモデルは、ランダムユーティリティモデル(RUM)の解釈可能性と行動的堅牢性と、ディープラーニング手法の一般化と予測能力を組み合わせる。
本稿では,RUMBoostモデルとMLおよびRandom Utilityベンチマークモデルとの比較を行い,ロンドンの選好モード選択データについて検討した。
論文 参考訳(メタデータ) (2024-01-22T13:54:26Z) - Finite Mixtures of Multivariate Poisson-Log Normal Factor Analyzers for
Clustering Count Data [0.8499685241219366]
因子分析モデルの混合に基づく8種類の擬似混合モデルについて紹介する。
提案モデルはRNAシークエンシング研究から得られた離散的なデータをクラスタリングする文脈において探索される。
論文 参考訳(メタデータ) (2023-11-13T21:23:15Z) - Mixed Models with Multiple Instance Learning [51.440557223100164]
一般化線形混合モデル(GLMM)とMultiple Instance Learning(MIL)を統合するフレームワークであるMixMILを紹介する。
実験結果から,MixMILは単一セルデータセットにおいて既存のMILモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-04T16:42:42Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。