論文の概要: Open-Set Living Need Prediction with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.02713v1
- Date: Tue, 03 Jun 2025 10:10:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.589082
- Title: Open-Set Living Need Prediction with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたオープンセット生活ニーズ予測
- Authors: Xiaochong Lan, Jie Feng, Yizhou Sun, Chen Gao, Jiahuan Lei, Xinlei Shi, Hengliang Luo, Yong Li,
- Abstract要約: Meituanのようなライフサービスプラットフォームでは、ユーザー購入は生活ニーズによって駆動され、パーソナライズされたサービスレコメンデーションにとって、正確な生活ニーズ予測が不可欠である。
従来のアプローチでは、この予測をクローズドセットの分類問題として扱い、生活ニーズの多様性と複雑さを捉える能力を著しく制限している。
本稿では,大規模言語モデル(LLM)を利用した制約のないニーズ予測システムであるPIGEONを提案する。
現実世界のデータセットに関する大規模な実験では、PIGEONは平均19.37%の要求に基づくライフサービスリコールにおいて、クローズドセットのアプローチを著しく上回っている。
- 参考スコア(独自算出の注目度): 49.9826719837983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Living needs are the needs people generate in their daily lives for survival and well-being. On life service platforms like Meituan, user purchases are driven by living needs, making accurate living need predictions crucial for personalized service recommendations. Traditional approaches treat this prediction as a closed-set classification problem, severely limiting their ability to capture the diversity and complexity of living needs. In this work, we redefine living need prediction as an open-set classification problem and propose PIGEON, a novel system leveraging large language models (LLMs) for unrestricted need prediction. PIGEON first employs a behavior-aware record retriever to help LLMs understand user preferences, then incorporates Maslow's hierarchy of needs to align predictions with human living needs. For evaluation and application, we design a recall module based on a fine-tuned text embedding model that links flexible need descriptions to appropriate life services. Extensive experiments on real-world datasets demonstrate that PIGEON significantly outperforms closed-set approaches on need-based life service recall by an average of 19.37%. Human evaluation validates the reasonableness and specificity of our predictions. Additionally, we employ instruction tuning to enable smaller LLMs to achieve competitive performance, supporting practical deployment.
- Abstract(参考訳): 生活ニーズとは、生き残りと幸福のために人々が日常生活で生み出すニーズである。
Meituanのようなライフサービスプラットフォームでは、ユーザー購入は生活ニーズによって駆動され、パーソナライズされたサービスレコメンデーションにとって、正確な生活ニーズ予測が不可欠である。
従来のアプローチでは、この予測をクローズドセットの分類問題として扱い、生活ニーズの多様性と複雑さを捉える能力を著しく制限している。
本研究では、オープンセットの分類問題としての生活ニーズ予測を再定義し、制約のないニーズ予測に大規模言語モデル(LLM)を活用した新しいシステムであるPIGEONを提案する。
PIGEONはまず、LCMがユーザの好みを理解するのを助けるために行動認識レコードレトリバーを使用し、次に、予測を人間の生活ニーズに合わせるために、Maslowの階層を組み込んだ。
評価と適用のために、フレキシブルな要求記述と適切なライフサービスとをリンクした微調整テキスト埋め込みモデルに基づくリコールモジュールを設計する。
現実世界のデータセットに関する大規模な実験では、PIGEONは平均19.37%の要求に基づくライフサービスリコールにおいて、クローズドセットのアプローチを著しく上回っている。
人間の評価は、予測の妥当性と特異性を検証する。
さらに,LLMの小型化を図り,実用的展開を支援するため,命令チューニングを採用した。
関連論文リスト
- AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
我々はAutoElicitを導入し、大規模言語モデルから知識を抽出し、予測モデルのための事前構築を行う。
これらの先行情報は情報的であり、自然言語を用いて洗練できることを示す。
AutoElicitは、非形式的な事前よりもエラーを大幅に減らし、ラベルを減らし、コンテクスト内学習を一貫して上回ります。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - Deep Bayesian Active Learning for Preference Modeling in Large Language Models [84.817400962262]
本稿では,BAL-PM(Bayesian Active Learner for Preference Modeling)を提案する。
BAL-PMは2つの人気のある人間の嗜好データセットにおいて、好みラベルを33%から68%少なくし、以前のベイズ買収ポリシーを超えている。
我々の実験では、BAL-PMは2つの人気のある人選好データセットにおいて33%から68%の選好ラベルを必要としており、ベイズ買収ポリシーを上回ります。
論文 参考訳(メタデータ) (2024-06-14T13:32:43Z) - LLM Processes: Numerical Predictive Distributions Conditioned on Natural Language [35.84181171987974]
我々のゴールは、数値データを処理し、任意の場所で確率的予測を行うレグレッションモデルを構築することである。
まず、大規模言語モデルから明示的で一貫性のある数値予測分布を抽出する戦略を探求する。
本研究では,テキストを数値予測に組み込む能力を示し,予測性能を改善し,定性的な記述を反映した定量的な構造を与える。
論文 参考訳(メタデータ) (2024-05-21T15:13:12Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。