論文の概要: An Empirical analysis on Transparent Algorithmic Exploration in
Recommender Systems
- arxiv url: http://arxiv.org/abs/2108.00151v1
- Date: Sat, 31 Jul 2021 05:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 14:56:13.645392
- Title: An Empirical analysis on Transparent Algorithmic Exploration in
Recommender Systems
- Title(参考訳): Recommenderシステムにおける透過的アルゴリズム探索に関する実証分析
- Authors: Kihwan Kim
- Abstract要約: 提案手法は, 従来のミックスイン手法と比較し, 従来の評価手法と比較する。
以上の結果から,ユーザからのフィードバックは,インターフェースによる探索のために選択された項目の方がはるかに多いことが示唆された。
- 参考スコア(独自算出の注目度): 17.91522677924348
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: All learning algorithms for recommendations face inevitable and critical
trade-off between exploiting partial knowledge of a user's preferences for
short-term satisfaction and exploring additional user preferences for long-term
coverage. Although exploration is indispensable for long success of a
recommender system, the exploration has been considered as the risk to decrease
user satisfaction. The reason for the risk is that items chosen for exploration
frequently mismatch with the user's interests. To mitigate this risk,
recommender systems have mixed items chosen for exploration into a
recommendation list, disguising the items as recommendations to elicit feedback
on the items to discover the user's additional tastes. This mix-in approach has
been widely used in many recommenders, but there is rare research, evaluating
the effectiveness of the mix-in approach or proposing a new approach for
eliciting user feedback without deceiving users. In this work, we aim to
propose a new approach for feedback elicitation without any deception and
compare our approach to the conventional mix-in approach for evaluation. To
this end, we designed a recommender interface that reveals which items are for
exploration and conducted a within-subject study with 94 MTurk workers. Our
results indicated that users left significantly more feedback on items chosen
for exploration with our interface. Besides, users evaluated that our new
interface is better than the conventional mix-in interface in terms of novelty,
diversity, transparency, trust, and satisfaction. Finally, path analysis show
that, in only our new interface, exploration caused to increase user-centric
evaluation metrics. Our work paves the way for how to design an interface,
which utilizes learning algorithm based on users' feedback signals, giving
better user experience and gathering more feedback data.
- Abstract(参考訳): すべてのレコメンデーションのための学習アルゴリズムは、短期的な満足のためにユーザの好みの部分的知識を活用することと、長期的カバレッジのために追加のユーザ嗜好を探索することの間に、必然的で重要なトレードオフに直面します。
推奨システムの長期的成功には探索が不可欠であるが,ユーザの満足度を低下させるリスクとして検討されている。
リスクの原因は、探索のために選択されたアイテムがユーザの関心事と頻繁にミスマッチするためである。
このリスクを軽減するため、レコメンデータシステムは、レコメンデーションリストの探索のために選択された混合アイテムを持ち、リコメンデーションとしてアイテムを嫌悪し、アイテムに対するフィードバックを導き、ユーザの追加の好みを発見する。
このミックスインアプローチは、多くのレコメンデーターで広く使われているが、ミックスインアプローチの有効性を評価したり、ユーザーを騙さずにユーザーフィードバックを引き出す新しいアプローチを提案する研究は稀である。
そこで本研究では,提案手法と従来のミックスイン方式との比較を行い,新たなフィードバック誘発法を提案する。
そこで我々は,探索対象の項目を提示するレコメンデータインタフェースを設計し,94人のMTurk労働者を対象に実験を行った。
以上の結果から,ユーザインターフェースによる探索対象に対するフィードバックは大幅に増加した。
さらに,新しいインターフェースは,新規性,多様性,透明性,信頼,満足度の観点から従来のミックスインインターフェースよりも優れていると評価した。
最後に、パス分析は、新しいインターフェイスのみにおいて、探索がユーザ中心の評価メトリクスの増加を引き起こしたことを示している。
本研究は,ユーザのフィードバック信号に基づく学習アルゴリズムを活用し,ユーザエクスペリエンスを向上し,より多くのフィードバックデータを集めるインタフェースの設計方法を提案する。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Quantifying User Coherence: A Unified Framework for Cross-Domain Recommendation Analysis [69.37718774071793]
本稿では,レコメンデーションシステムを理解するための新しい情報理論手法を提案する。
9つのデータセットで7つのレコメンデーションアルゴリズムを評価し、測定値と標準的なパフォーマンス指標の関係を明らかにする。
論文 参考訳(メタデータ) (2024-10-03T13:02:07Z) - Negative Sampling in Recommendation: A Survey and Future Directions [43.11318243903388]
ネガティブサンプリングは、ユーザの行動に固有の真のネガティブな側面を明らかにすることに熟練している。
我々は、既存のネガティブサンプリング戦略に関する広範な文献レビューを行い、推奨する。
多様なレコメンデーションシナリオにおいて、最適化されたネガティブサンプリング戦略の洞察について詳述する。
論文 参考訳(メタデータ) (2024-09-11T12:48:52Z) - UOEP: User-Oriented Exploration Policy for Enhancing Long-Term User Experiences in Recommender Systems [7.635117537731915]
強化学習(Reinforcement Learning, RL)は,レコメンデーションシステムにおけるユーザの長期体験向上の要因となっている。
現代のレコメンデータシステムは、何千万もの項目で異なるユーザ行動パターンを示しており、探索の難しさを高めている。
ユーザグループ間のきめ細かい探索を容易にする新しいアプローチであるユーザ指向探索ポリシー(UOEP)を提案する。
論文 参考訳(メタデータ) (2024-01-17T08:01:18Z) - Explainable Active Learning for Preference Elicitation [0.0]
我々は、最小限のユーザ労力で情報取得を最大化することを目的として、この問題を解決するためにアクティブラーニング(AL)を採用している。
ALは、大きなラベルのない集合から情報的データを選択して、それらをラベル付けするオラクルを問い合わせる。
ベースとなる機械学習(ML)モデルを更新するために、ユーザからのフィードバック(提示された項目に関するシステムの説明のために)を情報的なサンプルから収集する。
論文 参考訳(メタデータ) (2023-09-01T09:22:33Z) - PIE: Personalized Interest Exploration for Large-Scale Recommender
Systems [0.0]
これらの課題に対処するために,大規模レコメンデータシステムにおける探索のためのフレームワークを提案する。
我々の方法論は、最小限の修正で既存の大規模レコメンデータシステムに容易に統合できる。
私たちの仕事は、何十億ものユーザーを対象とする人気のビデオ発見および共有プラットフォームであるFacebook Watchで運用されている。
論文 参考訳(メタデータ) (2023-04-13T22:25:09Z) - Personalizing Intervened Network for Long-tailed Sequential User
Behavior Modeling [66.02953670238647]
タイルユーザーは、共同トレーニング後のヘッドユーザーよりも大幅に品質の低いレコメンデーションに悩まされる。
テールユーザーで個別に訓練されたモデルは、限られたデータのために依然として劣った結果が得られる。
本稿では,テールユーザの推薦性能を大幅に向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T02:50:19Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - Partial Bandit and Semi-Bandit: Making the Most Out of Scarce Users'
Feedback [62.997667081978825]
本稿では,ユーザのフィードバックを考慮し,3つの戦略を用いて評価する手法を提案する。
ユーザからのフィードバックが制限されているにも関わらず(全体の20%以下)、我々の手法は最先端のアプローチと同じような結果が得られる。
論文 参考訳(メタデータ) (2020-09-16T07:32:51Z) - Exploration-Exploitation Motivated Variational Auto-Encoder for
Recommender Systems [1.52292571922932]
協調フィルタリングにおいて,エクスプロビテーション探索型変分自動エンコーダ(XploVAE)を導入する。
パーソナライズされたレコメンデーションを容易にするために、観測されたユーザとイテムのインタラクションを1次にキャプチャする、ユーザ固有のサブグラフを構築した。
階層的潜在空間モデルを用いて、各ユーザに対するパーソナライズされたアイテム埋め込みと、全ユーザサブグラフの人口分布を学習する。
論文 参考訳(メタデータ) (2020-06-05T17:37:46Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。