論文の概要: Where Would I Go Next? Large Language Models as Human Mobility
Predictors
- arxiv url: http://arxiv.org/abs/2308.15197v2
- Date: Tue, 9 Jan 2024 14:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 19:55:04.040388
- Title: Where Would I Go Next? Large Language Models as Human Mobility
Predictors
- Title(参考訳): 次はどこへ行くの?
ヒューマンモビリティ予測器としての大規模言語モデル
- Authors: Xinglei Wang, Meng Fang, Zichao Zeng, Tao Cheng
- Abstract要約: 人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
- 参考スコア(独自算出の注目度): 21.100313868232995
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate human mobility prediction underpins many important applications
across a variety of domains, including epidemic modelling, transport planning,
and emergency responses. Due to the sparsity of mobility data and the
stochastic nature of people's daily activities, achieving precise predictions
of people's locations remains a challenge. While recently developed large
language models (LLMs) have demonstrated superior performance across numerous
language-related tasks, their applicability to human mobility studies remains
unexplored. Addressing this gap, this article delves into the potential of LLMs
for human mobility prediction tasks. We introduce a novel method, LLM-Mob,
which leverages the language understanding and reasoning capabilities of LLMs
for analysing human mobility data. We present concepts of historical stays and
context stays to capture both long-term and short-term dependencies in human
movement and enable time-aware prediction by using time information of the
prediction target. Additionally, we design context-inclusive prompts that
enable LLMs to generate more accurate predictions. Comprehensive evaluations of
our method reveal that LLM-Mob excels in providing accurate and interpretable
predictions, highlighting the untapped potential of LLMs in advancing human
mobility prediction techniques. We posit that our research marks a significant
paradigm shift in human mobility modelling, transitioning from building complex
domain-specific models to harnessing general-purpose LLMs that yield accurate
predictions through language instructions. The code for this work is available
at https://github.com/xlwang233/LLM-Mob.
- Abstract(参考訳): 正確な人間の移動予測は、疫病モデル、輸送計画、緊急対応など、さまざまな領域で多くの重要な応用を支えている。
モビリティデータのスパース性と人々の日常生活活動の確率的性質から、人々の位置を正確に予測することは課題である。
最近開発された大規模言語モデル(LLM)は、多くの言語関連タスクにおいて優れた性能を示したが、人間のモビリティ研究への適用性はまだ明らかになっていない。
このギャップに対処するため、本論文は人間の移動予測タスクにおけるLLMの可能性について考察する。
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本研究では,人間の移動における長期的・短期的依存を捉え,予測対象の時間情報を用いて時間認識予測を可能にするために,歴史的滞留と文脈留置の概念を提案する。
さらに,LLMがより正確な予測を生成できるように,文脈包摂的プロンプトを設計する。
本手法の総合評価により, LLM-Mobは, 高精度かつ解釈可能な予測を行う上で優れており, 人体移動予測技術の進歩におけるLLMの未完成の可能性を強調している。
我々の研究は、複雑なドメイン固有モデルの構築から、言語命令を通じて正確な予測を行う汎用LLMへの移行という、人間のモビリティモデリングにおける重要なパラダイムシフトを示唆している。
この作業のコードはhttps://github.com/xlwang233/llm-mobで入手できる。
関連論文リスト
- Mobility-LLM: Learning Visiting Intentions and Travel Preferences from Human Mobility Data with Large Language Models [22.680033463634732]
位置情報ベースのサービス(LBS)は、チェックインシーケンスを通じて多様な行動に関する広範な人間の移動データを蓄積している。
しかし、チェックインシーケンスを分析する既存のモデルでは、これらのシーケンスに含まれる意味を考慮できない。
複数のタスクのチェックインシーケンスを解析するために,大規模言語モデルを活用した新しいフレームワークである Mobility-LLM を提案する。
論文 参考訳(メタデータ) (2024-10-29T01:58:06Z) - AgentMove: Predicting Human Mobility Anywhere Using Large Language Model based Agentic Framework [7.007450097312181]
本稿では,世界中の都市において,汎用的な移動予測を実現するためのエージェント予測フレームワークであるAgentMoveを紹介する。
AgentMoveでは、まず移動予測タスクを3つのサブタスクに分解し、それに対応するモジュールを設計してこれらのサブタスクを完成させる。
12都市の2つの情報源によるモビリティデータの実験では、AgentMoveはさまざまな指標において8%以上で最高のベースラインを達成している。
論文 参考訳(メタデータ) (2024-08-26T02:36:55Z) - LIMP: Large Language Model Enhanced Intent-aware Mobility Prediction [5.7042182940772275]
本稿では,新しい LIMP (LLMs for Intent-ware Mobility Prediction) フレームワークを提案する。
具体的には、LIMPは「Analyze-Abstract-Infer」(A2I)エージェントワークフローを導入し、移動意図推論のためのLLMの常識推論力を解き放つ。
実世界の2つのデータセット上でLIMPを評価し,次の位置予測における精度の向上と効果的な意図推定を行った。
論文 参考訳(メタデータ) (2024-08-23T04:28:56Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - A Survey on Human Preference Learning for Large Language Models [81.41868485811625]
近年の多目的大言語モデル(LLM)の急激な増加は、より有能な基礎モデルと人間の意図を優先学習によって整合させることに大きく依存している。
本調査では、選好フィードバックのソースとフォーマット、選好信号のモデリングと使用、および、整列 LLM の評価について述べる。
論文 参考訳(メタデータ) (2024-06-17T03:52:51Z) - Traj-LLM: A New Exploration for Empowering Trajectory Prediction with Pre-trained Large Language Models [12.687494201105066]
本稿では,Traj-LLMを提案する。Large Language Models (LLMs) を用いて,エージェントの過去の/観測された軌跡やシーンセマンティクスから将来の動きを生成する可能性について検討する。
LLMの強力な理解能力は、ハイレベルなシーン知識とインタラクティブな情報のスペクトルを捉えている。
人為的な車線焦点認知機能を模倣し,先駆的なMambaモジュールを用いた車線認識確率論的学習を導入する。
論文 参考訳(メタデータ) (2024-05-08T09:28:04Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Large Language Models for Spatial Trajectory Patterns Mining [9.70298494476926]
大型言語モデル(LLM)は、人間に似た方法で推論する能力を示した。
このことは、人間の移動における時間的パターンを解析する大きな可能性を示唆している。
我々の研究は、人間の空間的軌跡解析のためのLSMの強度と限界についての洞察を提供する。
論文 参考訳(メタデータ) (2023-10-07T23:21:29Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。