論文の概要: SynthTRIPs: A Knowledge-Grounded Framework for Benchmark Query Generation for Personalized Tourism Recommenders
- arxiv url: http://arxiv.org/abs/2504.09277v1
- Date: Sat, 12 Apr 2025 16:48:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-23 08:32:52.535945
- Title: SynthTRIPs: A Knowledge-Grounded Framework for Benchmark Query Generation for Personalized Tourism Recommenders
- Title(参考訳): SynthTRIPs:パーソナライズされた観光レコメンダのためのベンチマーククエリ生成のための知識収集フレームワーク
- Authors: Ashmi Banerjee, Adithi Satish, Fitri Nur Aisyah, Wolfgang Wörndl, Yashar Deldjoo,
- Abstract要約: 本稿では,Large Language Models (LLMs) を用いた合成旅行クエリ生成のための新しいSynthTRIPsフレームワークを提案する。
我々のアプローチは、人格に基づく好み(予算、旅行スタイルなど)と明確な持続可能性フィルタ(歩行性、空気質など)を組み合わせることで、現実的で多様なクエリを生成する。
本手法は他の推奨システムドメインにも適用した。
- 参考スコア(独自算出の注目度): 6.910185679055651
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tourism Recommender Systems (TRS) are crucial in personalizing travel experiences by tailoring recommendations to users' preferences, constraints, and contextual factors. However, publicly available travel datasets often lack sufficient breadth and depth, limiting their ability to support advanced personalization strategies -- particularly for sustainable travel and off-peak tourism. In this work, we explore using Large Language Models (LLMs) to generate synthetic travel queries that emulate diverse user personas and incorporate structured filters such as budget constraints and sustainability preferences. This paper introduces a novel SynthTRIPs framework for generating synthetic travel queries using LLMs grounded in a curated knowledge base (KB). Our approach combines persona-based preferences (e.g., budget, travel style) with explicit sustainability filters (e.g., walkability, air quality) to produce realistic and diverse queries. We mitigate hallucination and ensure factual correctness by grounding the LLM responses in the KB. We formalize the query generation process and introduce evaluation metrics for assessing realism and alignment. Both human expert evaluations and automatic LLM-based assessments demonstrate the effectiveness of our synthetic dataset in capturing complex personalization aspects underrepresented in existing datasets. While our framework was developed and tested for personalized city trip recommendations, the methodology applies to other recommender system domains. Code and dataset are made public at https://bit.ly/synthTRIPs
- Abstract(参考訳): 観光レコメンダシステム(TRS)は,利用者の嗜好や制約,文脈要因をカスタマイズすることで,旅行体験のパーソナライズに不可欠である。
しかし、一般に利用可能な旅行データセットには十分な幅と深さがないことが多く、特に持続可能な旅行やオフピーク観光において、高度なパーソナライズ戦略をサポートする能力が制限されている。
本研究では,Large Language Models (LLMs) を用いて,多様なユーザペルソナをエミュレートし,予算制約や持続可能性優先といった構造化されたフィルタを組み込んだ合成旅行クエリを生成する。
本稿では,構造化知識ベース(KB)に接地したLLMを用いて,合成旅行クエリを生成するための新しいSynthTRIPsフレームワークを提案する。
提案手法は,人格に基づく嗜好(予算,旅行スタイルなど)と明確な持続可能性フィルタ(歩行性,空気質など)を組み合わせることで,現実的で多様なクエリを生成する。
LLM応答をKBでグラウンド化することで幻覚を緩和し,事実的正当性を確保する。
クエリ生成プロセスを形式化し、リアリズムとアライメントを評価するための評価指標を導入する。
ヒトの専門家による評価とLDMに基づく自動評価は、既存のデータセットで表現されていない複雑なパーソナライゼーションの側面を捉える上で、我々の合成データセットの有効性を示すものである。
本手法は他の推奨システムドメインにも適用した。
コードとデータセットはhttps://bit.ly/synthTRIPsで公開される
関連論文リスト
- TP-RAG: Benchmarking Retrieval-Augmented Large Language Model Agents for Spatiotemporal-Aware Travel Planning [39.934634038758404]
本稿では,検索用時間RAG対応旅行計画の最初のベンチマークであるTP-RAGを紹介する。
我々のデータセットには、2,348の現実世界の旅行クエリ、85,575の微粒なPOI、18,784の注釈付きPOIが含まれている。
論文 参考訳(メタデータ) (2025-04-11T17:02:40Z) - A Survey of Direct Preference Optimization [103.59317151002693]
LLM(Large Language Models)は、前例のない生成能力を示す。
人的価値との整合性は、有用で無害なデプロイメントを保証する上で、依然として重要です。
直接優先度最適化(DPO)は、最近、合理化された代替案として注目されている。
論文 参考訳(メタデータ) (2025-03-12T08:45:15Z) - TripCraft: A Benchmark for Spatio-Temporally Fine Grained Travel Planning [7.841787597078323]
TripCraft は LLM によるパーソナライズされた旅行計画のための,新たなベンチマークを確立している。
パラメータ情報設定は食事スケジューリングを著しく向上させ、7日間のシナリオでは時間的食事スコアが61%から80%に向上する。
論文 参考訳(メタデータ) (2025-02-27T20:33:28Z) - FSPO: Few-Shot Preference Optimization of Synthetic Preference Data in LLMs Elicits Effective Personalization to Real Users [111.56469697145519]
メタ学習問題として報酬モデルを再設計するFew-Shot Preference Optimizationを提案する。
このフレームワークでは、LDMはそのユーザからいくつかのラベル付けされた好みを通じてユーザへの迅速な適応を学び、パーソナライズされた報酬関数を構築する。
公開されているLLMを用いて100万以上の合成パーソナライズされた好みを生成する。
本研究は,映画レビュー,教育背景に基づく教育適応,一般質問応答の3分野を対象に,最大1,500人の総合ユーザを対象に,パーソナライズされたオープンエンド世代に対するFSPOの評価を行った。
論文 参考訳(メタデータ) (2025-02-26T17:08:46Z) - GenRec: A Flexible Data Generator for Recommendations [1.384948712833979]
GenRecは、現実的でよく知られた特性を示す合成ユーザ・イテム相互作用を生成するための新しいフレームワークである。
このフレームワークは潜在因子モデリングに基づく生成プロセスに基づいている。
論文 参考訳(メタデータ) (2024-07-23T15:53:17Z) - Preference Elicitation for Offline Reinforcement Learning [59.136381500967744]
オフラインの嗜好に基づく強化学習アルゴリズムであるSim-OPRLを提案する。
本アルゴリズムは,配当外データに対する悲観的アプローチと,最適方針に関する情報的嗜好を得るための楽観的アプローチを用いる。
論文 参考訳(メタデータ) (2024-06-26T15:59:13Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - Lusifer: LLM-based User SImulated Feedback Environment for online Recommender systems [0.0]
強化学習(RL)レコメンデータシステムは、現実のシナリオにおけるユーザの好みの性質を変えることなく、流体をキャプチャできない静的データセットに依存することが多い。
LLMベースのシミュレーション環境であるLulsiferを導入し、RLベースのレコメンデータトレーニングのための動的で現実的なユーザフィードバックを生成する。
論文 参考訳(メタデータ) (2024-05-22T05:43:15Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。