論文の概要: Open-Set Living Need Prediction with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.02713v1
- Date: Tue, 03 Jun 2025 10:10:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.589082
- Title: Open-Set Living Need Prediction with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたオープンセット生活ニーズ予測
- Authors: Xiaochong Lan, Jie Feng, Yizhou Sun, Chen Gao, Jiahuan Lei, Xinlei Shi, Hengliang Luo, Yong Li,
- Abstract要約: Meituanのようなライフサービスプラットフォームでは、ユーザー購入は生活ニーズによって駆動され、パーソナライズされたサービスレコメンデーションにとって、正確な生活ニーズ予測が不可欠である。
従来のアプローチでは、この予測をクローズドセットの分類問題として扱い、生活ニーズの多様性と複雑さを捉える能力を著しく制限している。
本稿では,大規模言語モデル(LLM)を利用した制約のないニーズ予測システムであるPIGEONを提案する。
現実世界のデータセットに関する大規模な実験では、PIGEONは平均19.37%の要求に基づくライフサービスリコールにおいて、クローズドセットのアプローチを著しく上回っている。
- 参考スコア(独自算出の注目度): 49.9826719837983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Living needs are the needs people generate in their daily lives for survival and well-being. On life service platforms like Meituan, user purchases are driven by living needs, making accurate living need predictions crucial for personalized service recommendations. Traditional approaches treat this prediction as a closed-set classification problem, severely limiting their ability to capture the diversity and complexity of living needs. In this work, we redefine living need prediction as an open-set classification problem and propose PIGEON, a novel system leveraging large language models (LLMs) for unrestricted need prediction. PIGEON first employs a behavior-aware record retriever to help LLMs understand user preferences, then incorporates Maslow's hierarchy of needs to align predictions with human living needs. For evaluation and application, we design a recall module based on a fine-tuned text embedding model that links flexible need descriptions to appropriate life services. Extensive experiments on real-world datasets demonstrate that PIGEON significantly outperforms closed-set approaches on need-based life service recall by an average of 19.37%. Human evaluation validates the reasonableness and specificity of our predictions. Additionally, we employ instruction tuning to enable smaller LLMs to achieve competitive performance, supporting practical deployment.
- Abstract(参考訳): 生活ニーズとは、生き残りと幸福のために人々が日常生活で生み出すニーズである。
Meituanのようなライフサービスプラットフォームでは、ユーザー購入は生活ニーズによって駆動され、パーソナライズされたサービスレコメンデーションにとって、正確な生活ニーズ予測が不可欠である。
従来のアプローチでは、この予測をクローズドセットの分類問題として扱い、生活ニーズの多様性と複雑さを捉える能力を著しく制限している。
本研究では、オープンセットの分類問題としての生活ニーズ予測を再定義し、制約のないニーズ予測に大規模言語モデル(LLM)を活用した新しいシステムであるPIGEONを提案する。
PIGEONはまず、LCMがユーザの好みを理解するのを助けるために行動認識レコードレトリバーを使用し、次に、予測を人間の生活ニーズに合わせるために、Maslowの階層を組み込んだ。
評価と適用のために、フレキシブルな要求記述と適切なライフサービスとをリンクした微調整テキスト埋め込みモデルに基づくリコールモジュールを設計する。
現実世界のデータセットに関する大規模な実験では、PIGEONは平均19.37%の要求に基づくライフサービスリコールにおいて、クローズドセットのアプローチを著しく上回っている。
人間の評価は、予測の妥当性と特異性を検証する。
さらに,LLMの小型化を図り,実用的展開を支援するため,命令チューニングを採用した。
関連論文リスト
- Specializing Large Language Models to Simulate Survey Response Distributions for Global Populations [49.908708778200115]
我々は,調査応答分布をシミュレートする大規模言語モデル (LLM) を最初に開発した。
テストベッドとして、我々は2つの世界文化調査の国レベルの結果を使用します。
予測された応答分布と実際の応答分布のばらつきを最小限に抑えるために, ファースト・ツーケン確率に基づく微調整法を提案する。
論文 参考訳(メタデータ) (2025-02-10T21:59:27Z) - Beyond Scaling: Measuring and Predicting the Upper Bound of Knowledge Retention in Language Model Pre-Training [51.41246396610475]
本稿では,外部ツールを使わずにクローズドブック質問応答(QA)の性能を予測することを目的とする。
我々は、21の公開言語と3つのカスタムトレーニングされた大規模言語モデルの事前学習コーパスに対して、大規模な検索と意味解析を行う。
これらの基礎の上に構築されたSMI(Size-dependent Mutual Information)は,事前学習データの特徴を線形に相関させる情報理論の指標である。
論文 参考訳(メタデータ) (2025-02-06T13:23:53Z) - AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
我々はAutoElicitを導入し、大規模言語モデルから知識を抽出し、予測モデルのための事前構築を行う。
これらの先行情報は情報的であり、自然言語を用いて洗練できることを示す。
AutoElicitは、非形式的な事前よりもエラーを大幅に減らし、ラベルを減らし、コンテクスト内学習を一貫して上回ります。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - Opt-Out: Investigating Entity-Level Unlearning for Large Language Models via Optimal Transport [37.172662930947446]
大規模言語モデルは不注意にも、ユーザに対してプライベートで機密性の高い情報を開示する。
最適なトランスポートベースのアンラーニング手法であるOpt-Outを導入する。
また、最初のエンティティレベルの未学習データセットも提示する。
論文 参考訳(メタデータ) (2024-06-18T06:54:05Z) - Deep Bayesian Active Learning for Preference Modeling in Large Language Models [84.817400962262]
本稿では,BAL-PM(Bayesian Active Learner for Preference Modeling)を提案する。
BAL-PMは2つの人気のある人間の嗜好データセットにおいて、好みラベルを33%から68%少なくし、以前のベイズ買収ポリシーを超えている。
我々の実験では、BAL-PMは2つの人気のある人選好データセットにおいて33%から68%の選好ラベルを必要としており、ベイズ買収ポリシーを上回ります。
論文 参考訳(メタデータ) (2024-06-14T13:32:43Z) - LLM Processes: Numerical Predictive Distributions Conditioned on Natural Language [35.84181171987974]
我々のゴールは、数値データを処理し、任意の場所で確率的予測を行うレグレッションモデルを構築することである。
まず、大規模言語モデルから明示的で一貫性のある数値予測分布を抽出する戦略を探求する。
本研究では,テキストを数値予測に組み込む能力を示し,予測性能を改善し,定性的な記述を反映した定量的な構造を与える。
論文 参考訳(メタデータ) (2024-05-21T15:13:12Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Federated Learning for Early Dropout Prediction on Healthy Ageing
Applications [0.0]
我々は、プライバシの懸念を最小限に抑え、個々のデータを転送することなく分散トレーニングを可能にするフェデレーション機械学習(FML)アプローチを提案する。
その結果,FMLでトレーニングしたモデルの予測精度は,データ選択とクラス不均衡ハンドリング技術により有意に向上した。
論文 参考訳(メタデータ) (2023-09-08T13:17:06Z) - Robots That Ask For Help: Uncertainty Alignment for Large Language Model
Planners [85.03486419424647]
KnowNoは、大きな言語モデルの不確実性を測定し、調整するためのフレームワークである。
KnowNoは、タスク完了に関する統計的保証を提供する共形予測理論に基づいている。
論文 参考訳(メタデータ) (2023-07-04T21:25:12Z) - Lifelong Language Pretraining with Distribution-Specialized Experts [39.86463645187337]
Lifelong Learningの目的は、情報システムが時間にわたって連続したデータストリームから学習できるようにすることだ。
モデルキャパシティを動的に追加するMoEアーキテクチャであるLifelong-MoEを提案する。
既存の生涯学習アプローチと比較して、Lifelong-MoEは、19の下流のNLPタスクにおいて、より優れた数ショットのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-05-20T21:15:19Z) - Self-Supervised Contrastive Learning for Efficient User Satisfaction
Prediction in Conversational Agents [35.2098736872247]
ユーザとエージェントのインタラクションを学習するための,自己指導型コントラスト学習手法を提案する。
自己教師対象を用いた事前学習モデルは,ユーザ満足度予測に転送可能であることを示す。
また、非常に小さなサンプルサイズに対して、より優れた転送性を確保するために、新しい数発の転送学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T18:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。