論文の概要: Positive and Negative Critiquing for VAE-based Recommenders
- arxiv url: http://arxiv.org/abs/2204.02162v1
- Date: Tue, 5 Apr 2022 12:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 12:56:46.783930
- Title: Positive and Negative Critiquing for VAE-based Recommenders
- Title(参考訳): vaeベースの推薦者に対する肯定的・否定的評価
- Authors: Diego Antognini and Boi Faltings
- Abstract要約: 提案するM&Ms-VAEは,レコメンデーション,説明,クオリティの観点で最先端のパフォーマンスを実現する。
M&Ms-VAEと類似のモデルでは、ユーザーは否定的に批判できる(すなわち、明示的に反対する)。
M&Ms-VAE+はM&Ms-VAEの拡張であり, 肯定的, 否定的評価が可能である。
- 参考スコア(独自算出の注目度): 39.38032088973816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing explanations for recommended items allows users to refine the
recommendations by critiquing parts of the explanations. As a result of
revisiting critiquing from the perspective of multimodal generative models,
recent work has proposed M&Ms-VAE, which achieves state-of-the-art performance
in terms of recommendation, explanation, and critiquing. M&Ms-VAE and similar
models allow users to negatively critique (i.e., explicitly disagree). However,
they share a significant drawback: users cannot positively critique (i.e.,
highlight a desired feature). We address this deficiency with M&Ms-VAE+, an
extension of M&Ms-VAE that enables positive and negative critiquing. In
addition to modeling users' interactions and keyphrase-usage preferences, we
model their keyphrase-usage dislikes. Moreover, we design a novel critiquing
module that is trained in a self-supervised fashion. Our experiments on two
datasets show that M&Ms-VAE+ matches or exceeds M&Ms-VAE in recommendation and
explanation performance. Furthermore, our results demonstrate that representing
positive and negative critiques differently enables M&Ms-VAE+ to significantly
outperform M&Ms-VAE and other models in positive and negative multi-step
critiquing.
- Abstract(参考訳): 推奨項目の説明を提供することで、ユーザーは説明の一部を引用することで推奨事項を洗練できる。
マルチモーダル生成モデルの観点からの批評の再検討の結果、最近の研究は、推薦、説明、批評の観点から最先端のパフォーマンスを達成するM&Ms-VAEを提案する。
M&Ms-VAEと類似したモデルでは、ユーザーは否定的に批判できる(すなわち、明示的に不一致)。
しかし、それらは大きな欠点を共有している: ユーザーは肯定的に批判できない(すなわち、望ましい機能を強調)。
M&Ms-VAE+はM&Ms-VAEの拡張であり, 肯定的, 否定的評価が可能である。
ユーザのインタラクションとキーフレーズ使用好みのモデル化に加えて,キーフレーズ使用嫌悪をモデル化する。
さらに, 自己教師あり方式で訓練された, 新たな評価モジュールを設計した。
M&Ms-VAE+ が M&Ms-VAE と一致するか,あるいは超えるかを示す2つのデータセットの実験を行った。
さらに, この結果から, M&Ms-VAE+ と M&Ms-VAE+ は, 肯定的, 否定的な多段階的評価において, 著しく優れていることが示された。
関連論文リスト
- Self-Generated Critiques Boost Reward Modeling for Language Models [57.60881438647227]
Critic-RMは、余分な監督なしに自己生成した批評を使って報酬モデルを改善するフレームワークである。
実験の結果、Critic-RMは標準報酬モデルやLLM審査員と比較して報酬モデリングの精度を3.7%-7.3%改善していることがわかった。
論文 参考訳(メタデータ) (2024-11-25T18:28:26Z) - Direct Judgement Preference Optimization [66.83088028268318]
我々は、他のモデルのアウトプットを評価し、批判するために、生成的判断として大きな言語モデル(LLM)を訓練する。
我々は,異なるユースケースに対する選好ペアの収集に3つのアプローチを採用し,それぞれが異なる視点から生成判断を改善することを目的としている。
提案モデルは,位置や長さの偏りなどの固有バイアスに強く対応し,実践者が指定した評価プロトコルに柔軟に適用し,下流ジェネレータモデルを改善する上で有用な言語フィードバックを提供する。
論文 参考訳(メタデータ) (2024-09-23T02:08:20Z) - Beyond Thumbs Up/Down: Untangling Challenges of Fine-Grained Feedback for Text-to-Image Generation [67.88747330066049]
きめ細かいフィードバックは、画像の品質と迅速な調整におけるニュアンスドの区別を捉えます。
粗いフィードバックに対する優位性を示すことは、自動ではないことを示す。
きめ細かいフィードバックを抽出し活用する上で重要な課題を特定します。
論文 参考訳(メタデータ) (2024-06-24T17:19:34Z) - RefuteBench: Evaluating Refuting Instruction-Following for Large Language Models [17.782410287625645]
本稿では,質問応答,機械翻訳,電子メール作成などのタスクをカバーするベンチマークRefuteBenchを提案する。
評価の目的は、モデルが反響命令の形で肯定的にフィードバックを受けられるか、会話を通してユーザー要求に一貫して従えられるかを評価することである。
論文 参考訳(メタデータ) (2024-02-21T01:39:56Z) - DPR: An Algorithm Mitigate Bias Accumulation in Recommendation feedback
loops [41.21024436158042]
フィードバックループと未知の露出メカニズムが推奨品質とユーザエクスペリエンスに与える影響について検討した。
本研究では,動的再重み付けを用いてクロスエフェクトを緩和する非バイアスアルゴリズムである動的パーソナライズランキング(textbfDPR)を提案する。
提案手法は,フィードバックループと未知の露出機構の負の効果を緩和するものである。
論文 参考訳(メタデータ) (2023-11-10T04:36:00Z) - Learning from Negative User Feedback and Measuring Responsiveness for
Sequential Recommenders [13.762960304406016]
シーケンシャルレコメンデータのトレーニング目標に、明示的かつ暗黙的なネガティブなユーザフィードバックを導入する。
大規模産業レコメンデーションシステムを用いた実演実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-23T17:16:07Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z) - Probabilistic and Variational Recommendation Denoising [56.879165033014026]
暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
本稿では,暗黙のフィードバックに対する確率的・変動的推薦を提案する。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
論文 参考訳(メタデータ) (2021-05-20T08:59:44Z) - Fast Multi-Step Critiquing for VAE-based Recommender Systems [27.207067974031805]
M&Ms-VAEは、提案と説明のための新しい変分オートエンコーダです。
モデルを弱い監督スキームでトレーニングし、完全および部分的に観察された変数をシミュレートします。
次に、訓練されたM&Ms-VAEモデルの一般化能力を利用して、ユーザの好みと批判を個別に埋め込む。
論文 参考訳(メタデータ) (2021-05-03T12:26:09Z) - Interacting with Explanations through Critiquing [40.69540222716043]
本稿では,レビューテキストからレコメンデーションのパーソナライズされた説明を生成する手法を提案する。
我々は,最先端技術による説明よりも,人間の方がこれらの説明をはるかに好んでいることを示す。
私たちの仕事の最も重要なイノベーションは、ユーザーがテキストの説明を批判することでレコメンデーションに反応できることです。
論文 参考訳(メタデータ) (2020-05-22T09:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。