論文の概要: RALLM-POI: Retrieval-Augmented LLM for Zero-shot Next POI Recommendation with Geographical Reranking
- arxiv url: http://arxiv.org/abs/2509.17066v1
- Date: Sun, 21 Sep 2025 12:52:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.097717
- Title: RALLM-POI: Retrieval-Augmented LLM for Zero-shot Next POI Recommendation with Geographical Reranking
- Title(参考訳): ALLM-POI:Zero-shot Next POI Recommendation with Geographical Re rank
- Authors: Kunrong Li, Kwan Hui Lim,
- Abstract要約: 次の関心のポイント(POI)推奨は、ユーザの次の目的地を歴史的な動きから予測する。
従来のモデルは集中的なトレーニングを必要とし、LSMは柔軟性と一般化可能なゼロショットソリューションを提供する。
ALLM-POIは,LLMと検索強化生成と自己修正を結合したフレームワークである。
- 参考スコア(独自算出の注目度): 7.085868567930685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Next point-of-interest (POI) recommendation predicts a user's next destination from historical movements. Traditional models require intensive training, while LLMs offer flexible and generalizable zero-shot solutions but often generate generic or geographically irrelevant results due to missing trajectory and spatial context. To address these issues, we propose RALLM-POI, a framework that couples LLMs with retrieval-augmented generation and self-rectification. We first propose a Historical Trajectory Retriever (HTR) that retrieves relevant past trajectories to serve as contextual references, which are then reranked by a Geographical Distance Reranker (GDR) for prioritizing spatially relevant trajectories. Lastly, an Agentic LLM Rectifier (ALR) is designed to refine outputs through self-reflection. Without additional training, RALLM-POI achieves substantial accuracy gains across three real-world Foursquare datasets, outperforming both conventional and LLM-based baselines. Code is released at https://github.com/LKRcrocodile/RALLM-POI.
- Abstract(参考訳): 次の関心点(POI)推奨は、ユーザの次の目的地を歴史的な動きから予測する。
従来のモデルは集中的な訓練を必要とするが、LSMは柔軟で一般化可能なゼロショットソリューションを提供するが、軌跡や空間的文脈の欠如により、一般的なあるいは地理的に無関係な結果を生成することが多い。
これらの問題に対処するために,LLMと検索強化生成と自己修正を結合したフレームワークであるALLM-POIを提案する。
筆者らはまず,関連する過去のトラジェクトリを検索して文脈参照として機能させるヒストリカル・トラジェクトリ・レトリバー(HTR)を提案する。
最後に、ALR(Agenic LLM Rectifier)は自己反射によって出力を洗練させるように設計されている。
追加のトレーニングなしでは、ALLM-POIは3つの現実世界のFoursquareデータセットでかなりの精度向上を実現し、従来のものとLLMベースのベースラインを上回ります。
コードはhttps://github.com/LKRcrocodile/RALLM-POIで公開されている。
関連論文リスト
- RecBase: Generative Foundation Model Pretraining for Zero-Shot Recommendation [78.01030342481246]
RecBaseは、レコメンデーション指向の目的によって事前訓練されたドメインに依存しない基礎モデルである。
アイテムを階層的な概念識別子にエンコードする統一されたアイテムトークンを導入します。
我々のモデルは、ゼロショットおよびクロスドメインレコメンデーションタスクにおいて、LLMのベースラインの最大7Bパラメータのパフォーマンスを一致または超過します。
論文 参考訳(メタデータ) (2025-09-03T08:33:43Z) - DistRAG: Towards Distance-Based Spatial Reasoning in LLMs [1.1435139523855764]
我々は,LLMが学習中に明示的に学習されていない関連空間情報を検索することのできる新しいアプローチであるDistRAGを開発した。
本手法は,都市と町の間の測地距離をグラフにエンコードし,その問合せに関連する文脈部分グラフを検索する。
論文 参考訳(メタデータ) (2025-06-03T22:10:39Z) - DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Online Preference Alignment for Language Models via Count-based Exploration [46.46627519343809]
Reinforcement Learning from Human Feedback (RLHF)は、人間の好みに合わせて微調整された大規模言語モデル(LLM)に大きな可能性を示している。
既存のメソッドは、データカバレッジに制限のある、固定データセットからの好みのアライメントを実行する。
オンラインRLHFは、プロンプト-レスポンスペアを反復的に収集することで、LLMが初期データセットのサポートの外部を探索できるようにするのが望ましい。
論文 参考訳(メタデータ) (2025-01-22T09:12:09Z) - Invar-RAG: Invariant LLM-aligned Retrieval for Better Generation [43.630437906898635]
Invar-RAGと呼ばれる2段階ファインチューニングアーキテクチャを提案する。
検索段階では、LORAに基づく表現学習を統合してLLMベースの検索器を構築する。
生成段階では、抽出した情報に基づいて回答を生成する際のLCM精度を向上させるための精細調整法が用いられる。
論文 参考訳(メタデータ) (2024-11-11T14:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。