論文の概要: Deviation-Based Learning
- arxiv url: http://arxiv.org/abs/2109.09816v1
- Date: Mon, 20 Sep 2021 19:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:11:09.708678
- Title: Deviation-Based Learning
- Title(参考訳): 逸脱に基づく学習
- Authors: Junpei Komiyama and Shunya Noda
- Abstract要約: 本稿では,リコメンデータシステムの学習方法として,偏差に基づく学習を提案する。
推奨者が常に選択を推奨するなら、学習は頻繁に行き詰まります。
社会福祉と学習率は、推薦者が選択を推奨しない場合、大幅に改善される。
- 参考スコア(独自算出の注目度): 5.304857921982131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose deviation-based learning, a new approach to training recommender
systems. In the beginning, the recommender and rational users have different
pieces of knowledge, and the recommender needs to learn the users' knowledge to
make better recommendations. The recommender learns users' knowledge by
observing whether each user followed or deviated from her recommendations. We
show that learning frequently stalls if the recommender always recommends a
choice: users tend to follow the recommendation blindly, and their choices do
not reflect their knowledge. Social welfare and the learning rate are improved
drastically if the recommender abstains from recommending a choice when she
predicts that multiple arms will produce a similar payoff.
- Abstract(参考訳): 本稿では,レコメンダシステムの学習のための新しいアプローチである偏差ベース学習を提案する。
当初、レコメンデーターと合理的なユーザは異なる知識を持っているが、レコメンデーターはより良いレコメンデーションを行うために、ユーザの知識を学ぶ必要がある。
レコメンダは、各ユーザが彼女のレコメンデーションに従っているか、あるいは外れているかを観察することによって、ユーザの知識を学習する。
ユーザが推奨を盲目的にフォローする傾向があり、その選択は彼らの知識を反映しない。
社会福祉と学習率は、レコメンデーターが選択を推奨しない場合に、複数の腕が同様の報酬を生み出すと予測した場合に劇的に改善される。
関連論文リスト
- Interactive Garment Recommendation with User in the Loop [77.35411131350833]
我々は,服を作るために補完的なアイテムを推奨するので,ユーザ反応を統合することでユーザプロファイルをその場で構築することを提案する。
本稿では,適切な衣服を提案し,ユーザのフィードバックを取り入れて推薦を改善することができる強化学習エージェントを提案する。
論文 参考訳(メタデータ) (2024-02-18T16:01:28Z) - Solutions to preference manipulation in recommender systems require
knowledge of meta-preferences [7.310043452300736]
ユーザの一部の好みの変化は、自己誘導的であり、レコメンダがそれを引き起こしたかどうかを希望する。
本稿では,リコメンデータシステムにおける嗜好操作の解決策として,特定のメタ参照を考慮に入れなければならないことを提案する。
論文 参考訳(メタデータ) (2022-09-14T15:01:13Z) - Explicit User Manipulation in Reinforcement Learning Based Recommender
Systems [0.0]
強化学習に基づくレコメンデータシステムは、クリック、エンゲージメント、消費の最大化を意味するならば、ユーザに影響を与えることができる。
ソーシャルメディアは政治的分極の増大に寄与する要因であることが示されている。
ユーザの信念と意見が特定の端に向けて調整された明示的なユーザ操作は、重要な関心事として現れます。
論文 参考訳(メタデータ) (2022-03-20T19:03:18Z) - KnowledgeCheckR: Intelligent Techniques for Counteracting Forgetting [52.623349754076024]
KnowledgeCheckRに統合された推奨アプローチの概要を提供します。
その例としては,将来的に繰り返される学習内容の識別を支援するユーティリティベースのレコメンデーション,セッションベースのレコメンデーションを実装するための協調フィルタリングアプローチ,インテリジェントな質問応答を支援するコンテントベースのレコメンデーションなどがある。
論文 参考訳(メタデータ) (2021-02-15T20:06:28Z) - ELIXIR: Learning from User Feedback on Explanations to Improve
Recommender Models [26.11434743591804]
説明に対するユーザフィードバックをユーザ好みのペアワイズ学習に活用する,ループ内人間フレームワーク ELIXIR を考案した。
elixirは、レコメンデーションと説明のペアに対するフィードバックを活用して、ユーザ固有の潜在選好ベクトルを学習する。
このフレームワークは、ランダムウォークとリスタートによる一般化グラフレコメンデーションを用いてインスタンス化される。
論文 参考訳(メタデータ) (2021-02-15T13:43:49Z) - Knowledge Transfer via Pre-training for Recommendation: A Review and
Prospect [89.91745908462417]
実験による推薦システムに対する事前学習の利点を示す。
事前学習を伴うレコメンデータシステムの今後の研究に向けて,いくつかの将来的な方向性について論じる。
論文 参考訳(メタデータ) (2020-09-19T13:06:27Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Survey for Trust-aware Recommender Systems: A Deep Learning Perspective [48.2733163413522]
信頼できるレコメンデーションシステムを採用することが重要になります。
本調査では,信頼を意識したレコメンデータシステムの3つのカテゴリについて概説する。
論文 参考訳(メタデータ) (2020-04-08T02:11:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。