論文の概要: From Reviews to Dialogues: Active Synthesis for Zero-Shot LLM-based Conversational Recommender System
- arxiv url: http://arxiv.org/abs/2504.15476v1
- Date: Mon, 21 Apr 2025 23:05:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-01 01:06:18.415328
- Title: From Reviews to Dialogues: Active Synthesis for Zero-Shot LLM-based Conversational Recommender System
- Title(参考訳): レビューから対話へ:ゼロショットLDMに基づく会話レコメンダシステムのためのアクティブな合成
- Authors: Rohan Surana, Junda Wu, Zhouhang Xie, Yu Xia, Harald Steck, Dawen Liang, Nathan Kallus, Julian McAuley,
- Abstract要約: 大きな言語モデル(LLM)は強力なゼロショットレコメンデーション機能を示している。
現実的なアプリケーションは、スケーラビリティ、解釈可能性、データプライバシの制約により、より小さく、内部的に管理された推奨モデルを好むことが多い。
能動学習技術によって導かれるブラックボックスLSMを利用して,会話学習データを合成する能動データ拡張フレームワークを提案する。
- 参考スコア(独自算出の注目度): 49.57258257916805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational recommender systems (CRS) typically require extensive domain-specific conversational datasets, yet high costs, privacy concerns, and data-collection challenges severely limit their availability. Although Large Language Models (LLMs) demonstrate strong zero-shot recommendation capabilities, practical applications often favor smaller, internally managed recommender models due to scalability, interpretability, and data privacy constraints, especially in sensitive or rapidly evolving domains. However, training these smaller models effectively still demands substantial domain-specific conversational data, which remains challenging to obtain. To address these limitations, we propose an active data augmentation framework that synthesizes conversational training data by leveraging black-box LLMs guided by active learning techniques. Specifically, our method utilizes publicly available non-conversational domain data, including item metadata, user reviews, and collaborative signals, as seed inputs. By employing active learning strategies to select the most informative seed samples, our approach efficiently guides LLMs to generate synthetic, semantically coherent conversational interactions tailored explicitly to the target domain. Extensive experiments validate that conversational data generated by our proposed framework significantly improves the performance of LLM-based CRS models, effectively addressing the challenges of building CRS in no- or low-resource scenarios.
- Abstract(参考訳): 会話レコメンデータシステム(CRS)は通常、広範囲なドメイン固有の会話データセットを必要とするが、高いコスト、プライバシー上の懸念、データ収集の課題は可用性を著しく制限する。
LLM(Large Language Models)は強力なゼロショットレコメンデーション機能を示しているが、実際アプリケーションはスケーラビリティ、解釈可能性、データプライバシの制約により、より小さく、内部的に管理されたレコメンデーションモデルを好むことが多い。
しかし、これらの小さなモデルを効果的に訓練するにはドメイン固有の会話データが必要であるため、入手は困難である。
これらの制約に対処するために,能動学習技術によって導かれるブラックボックスLSMを利用して,会話学習データを合成する能動データ拡張フレームワークを提案する。
具体的には、アイテムメタデータ、ユーザレビュー、協調的な信号など、公開されていないドメインデータをシード入力として利用する。
提案手法は,最も情報性の高い種子を抽出するための能動的学習戦略を用いて,LLMを効果的に誘導し,目的領域に適応した合成的,セマンティックな対話的相互作用を生成する。
大規模な実験により,提案フレームワークによって生成された会話データがLCMベースのCRSモデルの性能を大幅に向上し,ノンリソースシナリオやローリソースシナリオにおけるCRS構築の課題に効果的に対処できることが確認された。
関連論文リスト
- Graph Retrieval-Augmented LLM for Conversational Recommendation Systems [52.35491420330534]
G-CRS(Graph Retrieval-Augmented Large Language Model for Conversational Recommender Systems)は、グラフ検索強化世代とテキスト内学習を組み合わせた学習自由フレームワークである。
G-CRSは、タスク固有のトレーニングを必要とせず、既存の手法よりも優れたレコメンデーション性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T03:56:22Z) - Towards Enhancing Linked Data Retrieval in Conversational UIs using Large Language Models [1.3980986259786221]
本稿では,既存のシステムにおけるLarge Language Models(LLM)の統合について検討する。
LLMの高度な自然言語理解機能を活用することで、Webシステム内のRDFエンティティ抽出を改善する。
本手法の評価は,ユーザクエリに対するシステム表現性と応答精度の顕著な向上を示す。
論文 参考訳(メタデータ) (2024-09-24T16:31:33Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - AUGUST: an Automatic Generation Understudy for Synthesizing
Conversational Recommendation Datasets [56.052803235932686]
本稿では,大規模かつ高品質なレコメンデーションダイアログを生成する新しい自動データセット合成手法を提案する。
i)従来のレコメンデーションデータセットからの豊富なパーソナライズされたユーザプロファイル、(ii)知識グラフからの豊富な外部知識、(iii)人間対人間会話レコメンデーションデータセットに含まれる会話能力。
論文 参考訳(メタデータ) (2023-06-16T05:27:14Z) - Improving Conversational Recommendation Systems via Counterfactual Data
Simulation [73.4526400381668]
会話推薦システム(CRS)は、自然言語による会話を通じてレコメンデーションサービスを提供することを目的としている。
既存のCRSアプローチは、トレーニングデータの不足により、トレーニングの不十分な問題に悩まされることが多い。
我々は,CRSにおけるデータ不足の問題を緩和するため,CFCRSと呼ばれるCRSに対するCounterFactualデータシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2023-06-05T12:48:56Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z) - Leveraging Large Language Models in Conversational Recommender Systems [9.751217336860924]
Conversational Recommender System (CRS)は、リアルタイムのマルチターン対話を通じてシステムと対話できるようにすることにより、ユーザに対して透明性とコントロールを向上する。
大言語モデル(LLM)は、自然に会話し、世界知識と常識推論を言語理解に組み込むという前例のない能力を示した。
論文 参考訳(メタデータ) (2023-05-13T16:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。