論文の概要: Collaborative Filtering under Model Uncertainty
- arxiv url: http://arxiv.org/abs/2008.10117v2
- Date: Tue, 25 Aug 2020 02:10:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 02:45:58.956557
- Title: Collaborative Filtering under Model Uncertainty
- Title(参考訳): モデル不確かさ下における協調フィルタリング
- Authors: Robin M. Schmidt, Moritz Hahn
- Abstract要約: 我々は、マルクス、ピン・カルモン、ウストゥンによる予測的乗法の定義を用いて、このモデルの異なるバリエーションについて検討する。
これらのモデルのほとんどは、可用性の相違やあいまいさという点で非常によく似た結果をもたらす。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In their work, Dean, Rich, and Recht create a model to research recourse and
availability of items in a recommender system. We used the definition of
predictive multiplicity by Marx, Pin Calmon, and Ustun to examine different
variations of this model, using different values for two model parameters.
Pairwise comparison of their models show, that most of these models produce
very similar results in terms of discrepancy and ambiguity for the availability
and only in some cases the availability sets differ significantly.
- Abstract(参考訳): 彼らの仕事の中で、Dean、Rich、Rechtは、レコメンダシステムでアイテムのリコースと可用性を研究するモデルを作成しました。
Marx, Pin Calmon, Ustun による予測多重度の定義を用いて, 2つのモデルパラメータの異なる値を用いて, このモデルの異なるバリエーションについて検討した。
ペアで比較すると、これらのモデルのほとんどは、可用性のばらつきとあいまいさの観点から非常によく似た結果をもたらしており、可用性セットが著しく異なる場合もいくつかある。
関連論文リスト
- Pareto Merging: Multi-Objective Optimization for Preference-Aware Model Merging [11.186194228460273]
本稿では,各ベースモデルのタスク上でのマージモデルの性能を目的として扱う,嗜好意識のモデルマージ問題を提案する。
提案したモデルマージにより,多様なトレードオフモデルが生成され,最先端のマージベースラインと比較して高いテスト精度が得られることを示す。
論文 参考訳(メタデータ) (2024-08-22T03:41:14Z) - OLMES: A Standard for Language Model Evaluations [64.85905119836818]
OLMESは、再現可能な言語モデル評価のための文書化された、実用的な、オープンな標準である。
これは、複数の質問の非自然的な「閉じた」定式化を必要とする小さなベースモデル間の有意義な比較をサポートする。
OLMESには、既存の文献の結果によってガイドされた、よく考えられたドキュメント化されたレコメンデーションと、オープンな質問を解決する新しい実験が含まれている。
論文 参考訳(メタデータ) (2024-06-12T17:37:09Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - An Empirical Study of Accuracy, Fairness, Explainability, Distributional
Robustness, and Adversarial Robustness [16.677541058361218]
本稿では、これらの次元に沿った様々な指標のモデルタイプを複数のデータセットで評価するための実証的研究について述べる。
以上の結果から,特定のモデルタイプがすべての次元で良好に機能することが示され,複数の次元に沿って評価されたモデルを選択する際のトレードオフの種類が示される。
論文 参考訳(メタデータ) (2021-09-29T18:21:19Z) - Comparing hundreds of machine learning classifiers and discrete choice models in predicting travel behavior: an empirical benchmark [6.815730801645785]
多くの研究は、旅行需要予測において機械学習(ML)と離散選択モデル(DCM)を比較してきた。
これらの研究は、文脈変動を考慮せずに決定論的にモデルを比較するため、一般化性に欠けることが多い。
このベンチマークでは、2つの大規模データソースを比較した。
論文 参考訳(メタデータ) (2021-02-01T19:45:47Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Selecting Diverse Models for Scientific Insight [0.12891210250935145]
異なるペナルティ設定が、異なるモデルにおける係数の縮小またはスパーシティを促進するかを示す。
変分を強制するペナルティフォームの選択は、鋼合金組成から積層欠陥エネルギーを予測するために適用される。
論文 参考訳(メタデータ) (2020-06-16T14:06:55Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。