論文の概要: AgentMove: A Large Language Model based Agentic Framework for Zero-shot Next Location Prediction
- arxiv url: http://arxiv.org/abs/2408.13986v2
- Date: Sun, 09 Feb 2025 06:16:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:28:43.048858
- Title: AgentMove: A Large Language Model based Agentic Framework for Zero-shot Next Location Prediction
- Title(参考訳): AgentMove: ゼロショット次位置予測のための大規模言語モデルに基づくエージェントフレームワーク
- Authors: Jie Feng, Yuwei Du, Jie Zhao, Yong Li,
- Abstract要約: 本稿では,汎用的な次の位置予測を実現するためのエージェント予測フレームワークであるAgentMoveを紹介する。
AgentMoveでは、まず移動予測タスクを分解し、個々の移動パターンマイニングのための時空間記憶を含む特定のモジュールを設計する。
2つの異なる情報源によるモビリティデータを用いた実験により、AgentMoveは12の指標のうち8つの指標のうち3.33%から8.57%を突破した。
- 参考スコア(独自算出の注目度): 7.007450097312181
- License:
- Abstract: Next location prediction plays a crucial role in various real-world applications. Recently, due to the limitation of existing deep learning methods, attempts have been made to apply large language models (LLMs) to zero-shot next location prediction task. However, they directly generate the final output using LLMs without systematic design, which limits the potential of LLMs to uncover complex mobility patterns and underestimates their extensive reserve of global geospatial knowledge. In this paper, we introduce AgentMove, a systematic agentic prediction framework to achieve generalized next location prediction. In AgentMove, we first decompose the mobility prediction task and design specific modules to complete them, including spatial-temporal memory for individual mobility pattern mining, world knowledge generator for modeling the effects of urban structure and collective knowledge extractor for capturing the shared patterns among population. Finally, we combine the results of three modules and conduct a reasoning step to generate the final predictions. Extensive experiments utilizing mobility data from two distinct sources reveal that AgentMove surpasses the leading baseline by 3.33% to 8.57% across 8 out of 12 metrics and it shows robust predictions with various LLMs as base and also less geographical bias across cities. Our codes are available via https://github.com/tsinghua-fib-lab/AgentMove.
- Abstract(参考訳): 次の位置予測は、様々な現実世界のアプリケーションにおいて重要な役割を果たす。
近年,既存のディープラーニング手法の限界により,ゼロショット次位置予測タスクに大規模言語モデル(LLM)を適用する試みが試みられている。
しかし,LLMによる最終出力は体系的な設計なしに直接生成するので,複雑なモビリティパターンの発見にLLMの可能性を制限し,グローバルな地理空間的知識の予備的確保を過小評価する。
本稿では,汎用的な次位置予測を実現するためのエージェント予測フレームワークであるAgentMoveを紹介する。
AgentMoveでは、まず移動予測タスクを分解し、個々の移動パターンマイニングのための時空間記憶、都市構造の影響をモデル化する世界知識生成装置、人口間の共有パターンをキャプチャする集合知識抽出器など、特定のモジュールを設計する。
最後に、3つのモジュールの結果を組み合わせて、最終的な予測を生成するための推論ステップを実行する。
2つの異なる情報源から得られたモビリティデータを利用した大規模な実験により、AgentMoveは12の指標のうち8つの指標のうち3.33%から8.57%を上回り、様々なLSMをベースとし、都市全体の地理的偏差も少ないことを示す。
私たちのコードはhttps://github.com/tsinghua-fib-lab/AgentMove.comから入手可能です。
関連論文リスト
- TrajGEOS: Trajectory Graph Enhanced Orientation-based Sequential Network for Mobility Prediction [10.876862361004944]
次位置予測タスクのための textbfTrajectory textbfGraph textbfEnhanced textbfOrientation-based textbfSequential network (TrajGEOS) を提案する。
論文 参考訳(メタデータ) (2024-12-26T07:18:38Z) - nextlocllm: next location prediction using LLMs [20.726107072683575]
NextLocLLMは、連続的な空間座標に基づいて位置を符号化し、空間関係をより良くモデル化する。
NextLocLLMは、自然言語記述の処理に大きな言語モデル(LLM)を使用する。
実験により、NextLocLLMは、次の位置予測で既存のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-10-11T10:59:14Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - AgentGym: Evolving Large Language Model-based Agents across Diverse Environments [116.97648507802926]
大規模言語モデル(LLM)はそのようなエージェントを構築するための有望な基盤と考えられている。
我々は、自己進化能力を備えた一般機能 LLM ベースのエージェントを構築するための第一歩を踏み出す。
我々はAgentGymを提案する。AgentGymは、幅広い、リアルタイム、ユニフォーマット、並行エージェント探索のための様々な環境とタスクを特徴とする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-06T15:15:41Z) - Large Language Models are Zero-Shot Next Location Predictors [4.315451628809687]
大規模言語モデル(LLM)は、優れた一般化と推論能力を示している。
LLMは最大36.2%の精度を得ることができ、人間の移動性に特化して設計された他のモデルに比べて640%近く改善されている。
論文 参考訳(メタデータ) (2024-05-31T16:07:33Z) - Traj-LLM: A New Exploration for Empowering Trajectory Prediction with Pre-trained Large Language Models [12.687494201105066]
本稿では,Traj-LLMを提案する。Large Language Models (LLMs) を用いて,エージェントの過去の/観測された軌跡やシーンセマンティクスから将来の動きを生成する可能性について検討する。
LLMの強力な理解能力は、ハイレベルなシーン知識とインタラクティブな情報のスペクトルを捉えている。
人為的な車線焦点認知機能を模倣し,先駆的なMambaモジュールを用いた車線認識確率論的学習を導入する。
論文 参考訳(メタデータ) (2024-05-08T09:28:04Z) - Agent-FLAN: Designing Data and Methods of Effective Agent Tuning for Large Language Models [56.00992369295851]
オープンソースのLarge Language Models(LLM)は、さまざまなNLPタスクで大きな成功を収めていますが、エージェントとして振る舞う場合、それでもAPIベースのモデルよりもはるかに劣っています。
本稿では,(1) エージェント学習コーパスを,(1) エージェント学習データの分布から大きくシフトするエージェント推論と,(2) エージェントタスクが必要とする能力に異なる学習速度を示すエージェント学習コーパスと,(3) 幻覚を導入することでエージェント能力を改善する際の副作用について述べる。
本稿では,エージェントのためのFLANモデルを効果的に構築するためのエージェントFLANを提案する。
論文 参考訳(メタデータ) (2024-03-19T16:26:10Z) - GeoLLM: Extracting Geospatial Knowledge from Large Language Models [49.20315582673223]
大規模言語モデルから地理空間的知識を効果的に抽出する新しい手法であるGeoLLMを提案する。
我々は、人口密度や経済生活の計測など、国際社会への関心の中心となる複数の課題にまたがるアプローチの有用性を実証する。
実験の結果, LLMは試料効率が高く, 地理空間情報に富み, 世界中のロバストであることがわかった。
論文 参考訳(メタデータ) (2023-10-10T00:03:23Z) - Semi-supervised Learning from Street-View Images and OpenStreetMap for
Automatic Building Height Estimation [59.6553058160943]
本稿では,Mapillary SVIとOpenStreetMapのデータから建物の高さを自動的に推定する半教師付き学習(SSL)手法を提案する。
提案手法は, 平均絶対誤差(MAE)が約2.1mである建物の高さを推定する上で, 明らかな性能向上につながる。
予備結果は,低コストなVGIデータに基づく提案手法のスケールアップに向けた今後の取り組みを期待し,動機づけるものである。
論文 参考訳(メタデータ) (2023-07-05T18:16:30Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。