論文の概要: ChatGPT for Conversational Recommendation: Refining Recommendations by
Reprompting with Feedback
- arxiv url: http://arxiv.org/abs/2401.03605v1
- Date: Sun, 7 Jan 2024 23:17:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:02:34.619248
- Title: ChatGPT for Conversational Recommendation: Refining Recommendations by
Reprompting with Feedback
- Title(参考訳): 会話レコメンデーションのためのチャットgpt: フィードバックによるレコメンデーションの改善
- Authors: Kyle Dylan Spurlock, Cagla Acun, Esin Saka and Olfa Nasraoui
- Abstract要約: ChatGPTのような大規模言語モデル(LLM)は、使いやすさと、フィードバックに反応しながら様々なタスクに動的に適応する能力によって人気を集めている。
私たちはChatGPTの周囲に厳密なパイプラインを構築し、ユーザーが推薦のためにモデルを現実的に調査する方法をシミュレートします。
本稿では,ChatGPTの推薦における人気バイアスの影響について検討し,その性能をベースラインモデルと比較する。
- 参考スコア(独自算出の注目度): 1.3654846342364308
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recommendation algorithms have been pivotal in handling the overwhelming
volume of online content. However, these algorithms seldom consider direct user
input, resulting in superficial interaction between them. Efforts have been
made to include the user directly in the recommendation process through
conversation, but these systems too have had limited interactivity. Recently,
Large Language Models (LLMs) like ChatGPT have gained popularity due to their
ease of use and their ability to adapt dynamically to various tasks while
responding to feedback. In this paper, we investigate the effectiveness of
ChatGPT as a top-n conversational recommendation system. We build a rigorous
pipeline around ChatGPT to simulate how a user might realistically probe the
model for recommendations: by first instructing and then reprompting with
feedback to refine a set of recommendations. We further explore the effect of
popularity bias in ChatGPT's recommendations, and compare its performance to
baseline models. We find that reprompting ChatGPT with feedback is an effective
strategy to improve recommendation relevancy, and that popularity bias can be
mitigated through prompt engineering.
- Abstract(参考訳): 勧告アルゴリズムは、オンラインコンテンツの圧倒的な量の処理において重要な役割を担っている。
しかし、これらのアルゴリズムは直接ユーザ入力をほとんど考慮せず、表面的な相互作用をもたらす。
会話を通じてユーザーを直接推薦プロセスに含めるように努力されてきたが、これらのシステムも対話性に制限があった。
近年、ChatGPTのようなLarge Language Models (LLM) は、使いやすさと、フィードバックに反応しながら様々なタスクに動的に適応する能力によって人気を集めている。
本稿では,トップn会話レコメンデーションシステムとしてのChatGPTの有効性を検討する。
ChatGPTの周りに厳格なパイプラインを構築して、ユーザがレコメンデーションのためにモデルを現実的に調査する方法をシミュレートします。
chatgptの推奨事項における人気バイアスの影響をさらに探り、そのパフォーマンスをベースラインモデルと比較する。
フィードバックでChatGPTをリプロンプトすることはレコメンデーション関連性を改善する効果的な戦略であり、迅速なエンジニアリングによって人気バイアスを軽減することができる。
関連論文リスト
- Prompt Optimization with Human Feedback [69.95991134172282]
人間のフィードバックによる迅速な最適化問題(POHF)について検討する。
我々は自動POHF(Automatic POHF)というアルゴリズムを導入する。
その結果、APOHFは、少数の好みフィードバックインスタンスを用いて、効率的に適切なプロンプトを見つけることができることがわかった。
論文 参考訳(メタデータ) (2024-05-27T16:49:29Z) - "Close...but not as good as an educator." -- Using ChatGPT to provide
formative feedback in large-class collaborative learning [0.0]
われわれはChatGPTを用いて、1時間のZoomブレークアウトルームアクティビティにおいて、個人化されたフォーマットフィードバックを提供する。
44の回答者のうち半数がChatGPTを使ったことがなかった。
評価計画を改善するためにフィードバックループを使用したのは3つのグループだけだった。
論文 参考訳(メタデータ) (2023-11-02T23:00:38Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Evaluating ChatGPT as a Recommender System: A Rigorous Approach [12.458752059072706]
本稿では,ChatGPTのRSとしての能力とプロセス後ChatGPTレコメンデーションを評価するためのロバストな評価パイプラインを提案する。
モデルの機能は,トップNレコメンデーション,コールドスタートレコメンデーション,リコメンデーションリストの再ランクの3つの設定で分析する。
論文 参考訳(メタデータ) (2023-09-07T10:13:09Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z) - Chat-REC: Towards Interactive and Explainable LLMs-Augmented Recommender
System [11.404192885921498]
Chat-Recは会話レコメンデーションシステムを構築するための新しいパラダイムである。
Chat-Recは、ユーザの好みを学習し、ユーザと製品間の接続を確立するのに有効である。
実験では、Chat-Recはトップkレコメンデーションの結果を効果的に改善し、ゼロショット評価予測タスクでより良いパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2023-03-25T17:37:43Z) - Aligning Recommendation and Conversation via Dual Imitation [56.236932446280825]
提案するDICR(Dual Imitation for Conversational Recommendation)は,リコメンデーションパスとユーザ関心シフトパスを明確に整合させる2つの模倣を設計する。
アライメント信号の交換により、DICRはレコメンデーションと会話モジュール間の双方向のプロモーションを実現する。
実験により、DICRは推奨と会話のパフォーマンスに関する最先端モデルよりも、自動的、人的、斬新な説明可能性の指標の方が優れていることが示された。
論文 参考訳(メタデータ) (2022-11-05T08:13:46Z) - Comparison-based Conversational Recommender System with Relative Bandit
Feedback [15.680698037463488]
比較に基づく会話推薦システムを提案する。
我々はRelativeConUCBと呼ばれる新しい帯域幅アルゴリズムを提案する。
合成および実世界の両方のデータセットに対する実験により,提案手法の利点が検証された。
論文 参考訳(メタデータ) (2022-08-21T08:05:46Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Self-Supervised Bot Play for Conversational Recommendation with
Justifications [3.015622397986615]
会話レコメンデーションシステムのトレーニングを行うための新しい2部フレームワークを開発した。
まず,提案する項目を共同で提案し,その推論を主観的な側面で正当化するために,推薦システムを訓練する。
次に、このモデルを微調整して、自己教師型ボットプレイによる反復的なユーザフィードバックを組み込む。
論文 参考訳(メタデータ) (2021-12-09T20:07:41Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。