論文の概要: TOOL4POI: A Tool-Augmented LLM Framework for Next POI Recommendation
- arxiv url: http://arxiv.org/abs/2511.06405v1
- Date: Sun, 09 Nov 2025 14:37:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.926111
- Title: TOOL4POI: A Tool-Augmented LLM Framework for Next POI Recommendation
- Title(参考訳): TOOL4POI: 次のPOI勧告のためのツール拡張LDMフレームワーク
- Authors: Dongsheng Wang, Shen Gao, Chengrui Huang, Yuxi Huang, Ruixiang Feng, Shuo Shang,
- Abstract要約: Next Point-of-Interest (POI)レコメンデーションは、位置情報ベースのサービスにおける基本的なタスクである。
これらの課題に対処するため、新しいツール拡張フレームワークであるTool4POIを提案する。
Tool4POIは、選好抽出モジュール、マルチターン候補検索モジュール、再ランクモジュールの3つの主要なモジュールで構成されている。
既存の方法とは異なり、Tool4POIはタスク固有の微調整を必要とせず、プラグ・アンド・プレイ方式で既製のLCMと互換性がある。
- 参考スコア(独自算出の注目度): 27.34753445155574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Next Point-of-Interest (POI) recommendation is a fundamental task in location-based services. While recent advances leverage Large Language Model (LLM) for sequential modeling, existing LLM-based approaches face two key limitations: (i) strong reliance on the contextual completeness of user histories, resulting in poor performance on out-of-history (OOH) scenarios; (ii) limited scalability, due to the restricted context window of LLMs, which limits their ability to access and process a large number of candidate POIs. To address these challenges, we propose Tool4POI, a novel tool-augmented framework that enables LLMs to perform open-set POI recommendation through external retrieval and reasoning. Tool4POI consists of three key modules: preference extraction module, multi-turn candidate retrieval module, and reranking module, which together summarize long-term user interests, interact with external tools to retrieve relevant POIs, and refine final recommendations based on recent behaviors. Unlike existing methods, Tool4POI requires no task-specific fine-tuning and is compatible with off-the-shelf LLMs in a plug-and-play manner. Extensive experiments on three real-world datasets show that Tool4POI substantially outperforms state-of-the-art baselines, achieving up to 40% accuracy on challenging OOH scenarios where existing methods fail, and delivering average improvements of 20% and 30% on Acc@5 and Acc@10, respectively.
- Abstract(参考訳): Next Point-of-Interest (POI)レコメンデーションは、位置情報ベースのサービスにおける基本的なタスクである。
最近の進歩は、逐次モデリングにLarge Language Model(LLM)を利用しているが、既存のLLMベースのアプローチは2つの重要な制限に直面している。
(i)ユーザヒストリーの文脈的完全性に強く依存し、オフ・オブ・ヒストリー(OOH)のシナリオではパフォーマンスが劣る。
(II) LLMの制限されたコンテキストウィンドウによりスケーラビリティが制限され、多数の候補POIにアクセスおよび処理する能力が制限される。
これらの課題に対処するために、我々は、外部検索と推論を通じてLLMがオープンセットのPOIレコメンデーションを実行することを可能にする新しいツール拡張フレームワークであるTool4POIを提案する。
Tool4POIは、選好抽出モジュール、マルチターン候補検索モジュール、再ランクモジュールの3つの主要なモジュールから構成されており、これらは、長期のユーザ関心をまとめ、関連するPOIを検索するための外部ツールと対話し、最近の行動に基づいて最終的なレコメンデーションを洗練する。
既存の方法とは異なり、Tool4POIはタスク固有の微調整を必要とせず、プラグ・アンド・プレイ方式で既製のLCMと互換性がある。
3つの実世界のデータセットに対する大規模な実験によると、Tool4POIは最先端のベースラインを大幅に上回り、既存のメソッドが失敗するOOHシナリオで最大40%の精度を実現し、それぞれAcc@5とAcc@10で平均20%と30%の改善を実現している。
関連論文リスト
- What Matters in LLM-Based Feature Extractor for Recommender? A Systematic Analysis of Prompts, Models, and Adaptation [14.788780469735242]
LLM-as-feature-extractorパイプラインを4つのモジュールに分解するモジュールフレームワークであるRecXploreを提案する。
新しいテクニックを提案する代わりに、RecXploreは確立したメソッドを再検討し、整理し、各モジュールを分離して体系的な探索を可能にする。
実験の結果、既存の技術から得られる最良の設計を組み合わせるだけで、NDCG@5が18.7%、HR@5が12.7%向上することがわかった。
論文 参考訳(メタデータ) (2025-09-18T14:08:45Z) - Chunks as Arms: Multi-Armed Bandit-Guided Sampling for Long-Context LLM Preference Optimization [56.97588709890706]
LongMab-POは、長文モデリングタスクのための高品質で多様な応答を生成する新しいフレームワークである。
実験の結果,LongMab-POは嗜好データペアの多様性と品質を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-08-19T16:33:55Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Sequential Large Language Model-Based Hyper-parameter Optimization [0.0]
本研究では,大規模言語モデル(LLM)をハイパーパラメータ最適化(HPO)に活用する革新的なフレームワークSLLMBOを紹介する。
動的探索空間適応性、拡張パラメータ空間利用、新しいLLM木構造パーゼン推定器(LLM-TPE)が組み込まれている。
この総合ベンチマークは、GPT-3.5-Turbo、GPT-4o、Claude-Sonnet-3.5、Gemini-1.5-Flashを含む複数のLCMを評価する。
論文 参考訳(メタデータ) (2024-10-27T00:50:30Z) - Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
現実世界のシステムは多種多様なツールを組み込んでおり、全てのツールを大規模言語モデルに入力することは不可能である。
既存のツール検索手法は主にユーザクエリとツール記述間のセマンティックマッチングに焦点を当てている。
我々は,ユーザクエリとツール記述のセマンティックな類似性だけでなく,ツールの協調的情報も考慮した,新しいモデル診断型協調学習型ツール検索手法であるCOLTを提案する。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z) - More Samples or More Prompts? Exploring Effective In-Context Sampling for LLM Few-Shot Prompt Engineering [35.086135550672864]
In-Context Smpling (ICS) を提案し、複数のICLプロンプト入力の構成を最適化し、確実な予測を行う。
3つのデータ類似性に基づくICS戦略による詳細な評価は、これらの戦略がLLMの性能をさらに高める可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-11-16T11:02:49Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark for Large Language Models [79.62191017182518]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench上での13のLLMの評価により,LLMの弱さと今後の研究への道のりを示す。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。