論文の概要: One for All: Simultaneous Metric and Preference Learning over Multiple
Users
- arxiv url: http://arxiv.org/abs/2207.03609v1
- Date: Thu, 7 Jul 2022 22:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 12:46:38.177153
- Title: One for All: Simultaneous Metric and Preference Learning over Multiple
Users
- Title(参考訳): ひとつは、複数のユーザによる同時計測と選好学習
- Authors: Gregory Canal, Blake Mason, Ramya Korlakai Vinayak, Robert Nowak
- Abstract要約: 回答者の群集からの同時選好とメートル法学習について検討した。
我々のモデルは、群衆のアイテム類似性の一般的な尺度を特徴付ける距離メートル法を共同で学習する。
我々は、シミュレーションデータと色嗜好判定のデータセットの両方で、モデルの性能を実証する。
- 参考スコア(独自算出の注目度): 17.083305162005136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates simultaneous preference and metric learning from a
crowd of respondents. A set of items represented by $d$-dimensional feature
vectors and paired comparisons of the form ``item $i$ is preferable to item
$j$'' made by each user is given. Our model jointly learns a distance metric
that characterizes the crowd's general measure of item similarities along with
a latent ideal point for each user reflecting their individual preferences.
This model has the flexibility to capture individual preferences, while
enjoying a metric learning sample cost that is amortized over the crowd. We
first study this problem in a noiseless, continuous response setting (i.e.,
responses equal to differences of item distances) to understand the fundamental
limits of learning. Next, we establish prediction error guarantees for noisy,
binary measurements such as may be collected from human respondents, and show
how the sample complexity improves when the underlying metric is low-rank.
Finally, we establish recovery guarantees under assumptions on the response
distribution. We demonstrate the performance of our model on both simulated
data and on a dataset of color preference judgements across a large number of
users.
- Abstract(参考訳): 本稿では,参加者の集団による同時選好とメトリクス学習について検討する。
$d$-dimensional 特徴ベクトルで表される項目のセットと ``item $i$' という形式のペア比較は、各ユーザが作成した$j$' よりも好まれる。
本モデルでは,各ユーザの嗜好を反映した潜在理想点とともに,観客の商品類似度に関する一般測度を特徴付ける距離メトリックを共同で学習する。
このモデルは、個々の好みをキャプチャする柔軟性を持ち、群衆に償却されるメトリック学習サンプルコストを享受する。
学習の基本的な限界を理解するために,まず,ノイズのない連続的な応答設定(すなわち,項目距離の差と等しい応答)でこの問題を研究する。
次に, 騒音に対する予測誤差の保証を確立するとともに, 基礎となる指標が低ランクである場合に, サンプルの複雑さがいかに改善するかを示す。
最後に,応答分布の仮定に基づいて回復保証を確立する。
本研究では,シミュレーションデータと色選好判断のデータセットの両方において,多数のユーザを対象としたモデルの性能を示す。
関連論文リスト
- Data Pruning via Moving-one-Sample-out [61.45441981346064]
我々は移動1サンプルアウト(MoSo)と呼ばれる新しいデータ処理手法を提案する。
MoSoは、トレーニングセットから最も分かりにくいサンプルを特定し、削除することを目的としている。
実験結果から,MoSoは高プルーニング比で高い性能劣化を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2023-10-23T08:00:03Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Non-Stochastic CDF Estimation Using Threshold Queries [3.6576781735746513]
実験的な分布を2つの課題で推定する問題に取り組む。
まず、アルゴリズムはデータを直接観察するのではなく、サンプルについて限られた数のしきい値クエリしか要求しない。
第二に、データは独立で同一の分散であると仮定されず、代わりにサンプルを生成する任意のプロセスが可能である。
論文 参考訳(メタデータ) (2023-01-13T18:00:57Z) - SeedBERT: Recovering Annotator Rating Distributions from an Aggregated
Label [43.23903984174963]
単一ラベルからアノテータ評価分布を復元するSeedBERTを提案する。
人間の評価は,SeedBERTの注意機構がアノテータの不一致の原因と一致していることを示している。
論文 参考訳(メタデータ) (2022-11-23T18:35:15Z) - Utilizing supervised models to infer consensus labels and their quality
from data with multiple annotators [16.79939549201032]
分類のための実世界のデータは、しばしば複数のアノテータによってラベル付けされる。
このようなデータを推定するための簡単なアプローチであるCROWDLABを紹介します。
提案手法は,(1)-(3)に対して,多くの代替アルゴリズムよりも優れた推定値を提供する。
論文 参考訳(メタデータ) (2022-10-13T07:54:07Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z) - Learning Personalized Item-to-Item Recommendation Metric via Implicit
Feedback [24.37151414523712]
本稿では,暗黙のフィードバックによるメトリクス学習の新しい視点から,レコメンデーションシステムにおける項目間推薦問題について検討する。
本研究では,アイテムの内部コンテンツとユーザによるインタラクションの両方をキャプチャする,パーソナライズ可能なディープメトリックモデルを開発し,検討する。
論文 参考訳(メタデータ) (2022-03-18T18:08:57Z) - Multitask Learning and Bandits via Robust Statistics [5.535834989398578]
意思決定者は、しばしば多くの関連するが不均一な学習問題に直面している。
本稿では,この構造をサンプル効率良く活用する2段階マルチタスク学習推定器を提案する。
我々の推定器は、一般的な失業推定器と比較して、特徴次元$d$のサンプル複雑性境界を改善した。
論文 参考訳(メタデータ) (2021-12-28T17:37:08Z) - A Case Study on Sampling Strategies for Evaluating Neural Sequential
Item Recommendation Models [69.32128532935403]
負の項目をサンプリングする2つのよく知られた戦略は、一様ランダムサンプリングと人気によるサンプリングである。
我々は、現在最先端のシーケンシャルレコメンデータモデルを再評価する。
いずれのサンプリング戦略も,モデルの完全なランキングと比較すると,一貫性のないランキングを生成できることがわかった。
論文 参考訳(メタデータ) (2021-07-27T19:06:03Z) - Set2setRank: Collaborative Set to Set Ranking for Implicit Feedback
based Recommendation [59.183016033308014]
本稿では,暗黙的フィードバックの特徴を探究し,推奨するSet2setRankフレームワークを提案する。
提案するフレームワークはモデルに依存しず,ほとんどの推奨手法に容易に適用できる。
論文 参考訳(メタデータ) (2021-05-16T08:06:22Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。