論文の概要: A Data Synthesis Method Driven by Large Language Models for Proactive Mining of Implicit User Intentions in Tourism
- arxiv url: http://arxiv.org/abs/2505.11533v1
- Date: Wed, 14 May 2025 02:36:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.682559
- Title: A Data Synthesis Method Driven by Large Language Models for Proactive Mining of Implicit User Intentions in Tourism
- Title(参考訳): 大規模言語モデルによる観光における意図しないユーザ意図の積極的なマイニングのためのデータ合成手法
- Authors: Jinqiang Wang, Huansheng Ning, Tao Zhu, Jianguo Ding,
- Abstract要約: 観光分野では、Large Language Models (LLM) は観光客の曖昧な問い合わせから暗黙のユーザー意図を掘り下げるのに苦労することが多い。
中国観光サイトから収集したシードデータに基づいて対話をシミュレートするLLM駆動型ユーザエージェントとアシスタントエージェントを構築するSynPTを提案する。
- 参考スコア(独自算出の注目度): 6.387945824899046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the tourism domain, Large Language Models (LLMs) often struggle to mine implicit user intentions from tourists' ambiguous inquiries and lack the capacity to proactively guide users toward clarifying their needs. A critical bottleneck is the scarcity of high-quality training datasets that facilitate proactive questioning and implicit intention mining. While recent advances leverage LLM-driven data synthesis to generate such datasets and transfer specialized knowledge to downstream models, existing approaches suffer from several shortcomings: (1) lack of adaptation to the tourism domain, (2) skewed distributions of detail levels in initial inquiries, (3) contextual redundancy in the implicit intention mining module, and (4) lack of explicit thinking about tourists' emotions and intention values. Therefore, we propose SynPT (A Data Synthesis Method Driven by LLMs for Proactive Mining of Implicit User Intentions in the Tourism), which constructs an LLM-driven user agent and assistant agent to simulate dialogues based on seed data collected from Chinese tourism websites. This approach addresses the aforementioned limitations and generates SynPT-Dialog, a training dataset containing explicit reasoning. The dataset is utilized to fine-tune a general LLM, enabling it to proactively mine implicit user intentions. Experimental evaluations, conducted from both human and LLM perspectives, demonstrate the superiority of SynPT compared to existing methods. Furthermore, we analyze key hyperparameters and present case studies to illustrate the practical applicability of our method, including discussions on its adaptability to English-language scenarios. All code and data are publicly available.
- Abstract(参考訳): 観光分野では、Large Language Models (LLMs) は、観光客のあいまいな質問から暗黙のユーザー意図を掘り下げることに苦慮し、ユーザーのニーズを明確にするために積極的にユーザーを導く能力に欠けることが多い。
重要なボトルネックは、プロアクティブな質問と暗黙の意図的なマイニングを容易にする高品質なトレーニングデータセットの不足である。
近年の進歩は,LCMによるデータ合成を活用して,そのようなデータセットを作成し,専門知識を下流モデルに伝達する一方で,(1)観光領域への適応の欠如,(2)初期調査における詳細レベルのスキュード分布,(3)暗黙の意図的マイニングモジュールにおける文脈的冗長性,(4)観光客の感情や意図的価値観に対する明示的な思考の欠如など,いくつかの欠点を抱えている。
そこで我々は,中国観光サイトから収集したシードデータに基づいて対話をシミュレートするLLM駆動ユーザエージェントとアシスタントエージェントを構築したSynPT(LLMによる観光におけるアクティブマイニングのためのデータ合成手法)を提案する。
このアプローチは上記の制限に対処し、明示的な推論を含むトレーニングデータセットであるSynPT-Dialogを生成する。
データセットは一般的なLLMを微調整するために利用され、暗黙のユーザの意図を積極的にマイニングすることができる。
ヒトとLLMの両方の観点から実施した実験的評価は、既存の方法と比較してSynPTの優位性を実証している。
さらに,鍵となるハイパーパラメータの解析と事例研究を行い,本手法の実践的適用性について述べる。
すべてのコードとデータは公開されています。
関連論文リスト
- From Reviews to Dialogues: Active Synthesis for Zero-Shot LLM-based Conversational Recommender System [49.57258257916805]
大きな言語モデル(LLM)は強力なゼロショットレコメンデーション機能を示している。
現実的なアプリケーションは、スケーラビリティ、解釈可能性、データプライバシの制約により、より小さく、内部的に管理された推奨モデルを好むことが多い。
能動学習技術によって導かれるブラックボックスLSMを利用して,会話学習データを合成する能動データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-21T23:05:47Z) - SynthTRIPs: A Knowledge-Grounded Framework for Benchmark Query Generation for Personalized Tourism Recommenders [6.910185679055651]
本稿では,Large Language Models (LLMs) を用いた合成旅行クエリ生成のための新しいSynthTRIPsフレームワークを提案する。
我々のアプローチは、人格に基づく好み(予算、旅行スタイルなど)と明確な持続可能性フィルタ(歩行性、空気質など)を組み合わせることで、現実的で多様なクエリを生成する。
本手法は他の推奨システムドメインにも適用した。
論文 参考訳(メタデータ) (2025-04-12T16:48:35Z) - A Flexible Large Language Models Guardrail Development Methodology Applied to Off-Topic Prompt Detection [0.0]
大規模言語モデル(LLM)は、ユーザがこれらのモデルに対して、意図した範囲を超えてタスクを実行するように促すという、オフトピー的な誤用を招きやすい。
現行のガードレールは、高い偽陽性率、限られた適応性、およびプレプロダクションでは利用できない実世界のデータを必要とする非現実性に悩まされている。
これらの課題に対処するフレキシブルでデータフリーなガードレール開発手法を導入します。
論文 参考訳(メタデータ) (2024-11-20T00:31:23Z) - Mobility-LLM: Learning Visiting Intentions and Travel Preferences from Human Mobility Data with Large Language Models [22.680033463634732]
位置情報ベースのサービス(LBS)は、チェックインシーケンスを通じて多様な行動に関する広範な人間の移動データを蓄積している。
しかし、チェックインシーケンスを分析する既存のモデルでは、これらのシーケンスに含まれる意味を考慮できない。
複数のタスクのチェックインシーケンスを解析するために,大規模言語モデルを活用した新しいフレームワークである Mobility-LLM を提案する。
論文 参考訳(メタデータ) (2024-10-29T01:58:06Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Large Language Model Augmented Narrative Driven Recommendations [51.77271767160573]
ナラティブ・ドリブン・レコメンデーション(NDR)は、ユーザが好みや文脈を冗長に記述してレコメンデーションを募る情報アクセス問題である。
NDRはモデルのための豊富なトレーニングデータがなく、現在のプラットフォームは一般的にこれらの要求をサポートしない。
大規模言語モデル(LLM)を用いてNDRモデルのトレーニングを行う。
論文 参考訳(メタデータ) (2023-06-04T03:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。