論文の概要: AgentMove: A Large Language Model based Agentic Framework for Zero-shot Next Location Prediction
- arxiv url: http://arxiv.org/abs/2408.13986v2
- Date: Sun, 09 Feb 2025 06:16:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:28:43.048858
- Title: AgentMove: A Large Language Model based Agentic Framework for Zero-shot Next Location Prediction
- Title(参考訳): AgentMove: ゼロショット次位置予測のための大規模言語モデルに基づくエージェントフレームワーク
- Authors: Jie Feng, Yuwei Du, Jie Zhao, Yong Li,
- Abstract要約: 本稿では,汎用的な次の位置予測を実現するためのエージェント予測フレームワークであるAgentMoveを紹介する。
AgentMoveでは、まず移動予測タスクを分解し、個々の移動パターンマイニングのための時空間記憶を含む特定のモジュールを設計する。
2つの異なる情報源によるモビリティデータを用いた実験により、AgentMoveは12の指標のうち8つの指標のうち3.33%から8.57%を突破した。
- 参考スコア(独自算出の注目度): 7.007450097312181
- License:
- Abstract: Next location prediction plays a crucial role in various real-world applications. Recently, due to the limitation of existing deep learning methods, attempts have been made to apply large language models (LLMs) to zero-shot next location prediction task. However, they directly generate the final output using LLMs without systematic design, which limits the potential of LLMs to uncover complex mobility patterns and underestimates their extensive reserve of global geospatial knowledge. In this paper, we introduce AgentMove, a systematic agentic prediction framework to achieve generalized next location prediction. In AgentMove, we first decompose the mobility prediction task and design specific modules to complete them, including spatial-temporal memory for individual mobility pattern mining, world knowledge generator for modeling the effects of urban structure and collective knowledge extractor for capturing the shared patterns among population. Finally, we combine the results of three modules and conduct a reasoning step to generate the final predictions. Extensive experiments utilizing mobility data from two distinct sources reveal that AgentMove surpasses the leading baseline by 3.33% to 8.57% across 8 out of 12 metrics and it shows robust predictions with various LLMs as base and also less geographical bias across cities. Our codes are available via https://github.com/tsinghua-fib-lab/AgentMove.
- Abstract(参考訳): 次の位置予測は、様々な現実世界のアプリケーションにおいて重要な役割を果たす。
近年,既存のディープラーニング手法の限界により,ゼロショット次位置予測タスクに大規模言語モデル(LLM)を適用する試みが試みられている。
しかし,LLMによる最終出力は体系的な設計なしに直接生成するので,複雑なモビリティパターンの発見にLLMの可能性を制限し,グローバルな地理空間的知識の予備的確保を過小評価する。
本稿では,汎用的な次位置予測を実現するためのエージェント予測フレームワークであるAgentMoveを紹介する。
AgentMoveでは、まず移動予測タスクを分解し、個々の移動パターンマイニングのための時空間記憶、都市構造の影響をモデル化する世界知識生成装置、人口間の共有パターンをキャプチャする集合知識抽出器など、特定のモジュールを設計する。
最後に、3つのモジュールの結果を組み合わせて、最終的な予測を生成するための推論ステップを実行する。
2つの異なる情報源から得られたモビリティデータを利用した大規模な実験により、AgentMoveは12の指標のうち8つの指標のうち3.33%から8.57%を上回り、様々なLSMをベースとし、都市全体の地理的偏差も少ないことを示す。
私たちのコードはhttps://github.com/tsinghua-fib-lab/AgentMove.comから入手可能です。
関連論文リスト
- Multi-Transmotion: Pre-trained Model for Human Motion Prediction [68.87010221355223]
マルチトランスモーション(Multi-Transmotion)は、モダリティ事前トレーニング用に設計された革新的なトランスフォーマーベースのモデルである。
提案手法は,下流タスクにおける各種データセット間の競合性能を示す。
論文 参考訳(メタデータ) (2024-11-04T23:15:21Z) - FoMo: A Foundation Model for Mobile Traffic Forecasting with Diffusion Model [5.96737388771505]
モバイルトラフィック予測のための革新的なファンデーションモデル(FoMo)を提案する。
FoMoは、ネットワーク計画と最適化をサポートするために、複数の都市にまたがる短期・長期予測と分布生成の多様な予測タスクを処理する。
9つの実世界のデータセットに対する大規模な実験により、FoMoは多様な予測タスクやゼロ/フェーショット学習に関する現在のモデルより優れています。
論文 参考訳(メタデータ) (2024-10-20T07:32:16Z) - Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z) - DOME: Taming Diffusion Model into High-Fidelity Controllable Occupancy World Model [14.996395953240699]
DOMEは拡散に基づく世界モデルであり、過去の占有観察に基づいて将来の占有枠を予測する。
この世界のモデルが環境の進化を捉える能力は、自動運転の計画に不可欠である。
論文 参考訳(メタデータ) (2024-10-14T12:24:32Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - LIMP: Large Language Model Enhanced Intent-aware Mobility Prediction [5.7042182940772275]
本稿では,新しい LIMP (LLMs for Intent-ware Mobility Prediction) フレームワークを提案する。
具体的には、LIMPは「Analyze-Abstract-Infer」(A2I)エージェントワークフローを導入し、移動意図推論のためのLLMの常識推論力を解き放つ。
実世界の2つのデータセット上でLIMPを評価し,次の位置予測における精度の向上と効果的な意図推定を行った。
論文 参考訳(メタデータ) (2024-08-23T04:28:56Z) - Agent-FLAN: Designing Data and Methods of Effective Agent Tuning for Large Language Models [56.00992369295851]
オープンソースのLarge Language Models(LLM)は、さまざまなNLPタスクで大きな成功を収めていますが、エージェントとして振る舞う場合、それでもAPIベースのモデルよりもはるかに劣っています。
本稿では,(1) エージェント学習コーパスを,(1) エージェント学習データの分布から大きくシフトするエージェント推論と,(2) エージェントタスクが必要とする能力に異なる学習速度を示すエージェント学習コーパスと,(3) 幻覚を導入することでエージェント能力を改善する際の副作用について述べる。
本稿では,エージェントのためのFLANモデルを効果的に構築するためのエージェントFLANを提案する。
論文 参考訳(メタデータ) (2024-03-19T16:26:10Z) - Where Would I Go Next? Large Language Models as Human Mobility
Predictors [21.100313868232995]
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-29T10:24:23Z) - Context-aware multi-head self-attentional neural network model for next
location prediction [19.640761373993417]
我々は、歴史的位置情報から位置パターンを学習するマルチヘッド自己注意ニューラルネットワーク(A)を利用する。
提案モデルが他の最先端予測モデルより優れていることを示す。
我々は,提案モデルが文脈を考慮した移動予測に不可欠であると信じている。
論文 参考訳(メタデータ) (2022-12-04T23:40:14Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。