論文の概要: Where Would I Go Next? Large Language Models as Human Mobility
Predictors
- arxiv url: http://arxiv.org/abs/2308.15197v2
- Date: Tue, 9 Jan 2024 14:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 19:55:04.040388
- Title: Where Would I Go Next? Large Language Models as Human Mobility
Predictors
- Title(参考訳): 次はどこへ行くの?
ヒューマンモビリティ予測器としての大規模言語モデル
- Authors: Xinglei Wang, Meng Fang, Zichao Zeng, Tao Cheng
- Abstract要約: 人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
- 参考スコア(独自算出の注目度): 21.100313868232995
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate human mobility prediction underpins many important applications
across a variety of domains, including epidemic modelling, transport planning,
and emergency responses. Due to the sparsity of mobility data and the
stochastic nature of people's daily activities, achieving precise predictions
of people's locations remains a challenge. While recently developed large
language models (LLMs) have demonstrated superior performance across numerous
language-related tasks, their applicability to human mobility studies remains
unexplored. Addressing this gap, this article delves into the potential of LLMs
for human mobility prediction tasks. We introduce a novel method, LLM-Mob,
which leverages the language understanding and reasoning capabilities of LLMs
for analysing human mobility data. We present concepts of historical stays and
context stays to capture both long-term and short-term dependencies in human
movement and enable time-aware prediction by using time information of the
prediction target. Additionally, we design context-inclusive prompts that
enable LLMs to generate more accurate predictions. Comprehensive evaluations of
our method reveal that LLM-Mob excels in providing accurate and interpretable
predictions, highlighting the untapped potential of LLMs in advancing human
mobility prediction techniques. We posit that our research marks a significant
paradigm shift in human mobility modelling, transitioning from building complex
domain-specific models to harnessing general-purpose LLMs that yield accurate
predictions through language instructions. The code for this work is available
at https://github.com/xlwang233/LLM-Mob.
- Abstract(参考訳): 正確な人間の移動予測は、疫病モデル、輸送計画、緊急対応など、さまざまな領域で多くの重要な応用を支えている。
モビリティデータのスパース性と人々の日常生活活動の確率的性質から、人々の位置を正確に予測することは課題である。
最近開発された大規模言語モデル(LLM)は、多くの言語関連タスクにおいて優れた性能を示したが、人間のモビリティ研究への適用性はまだ明らかになっていない。
このギャップに対処するため、本論文は人間の移動予測タスクにおけるLLMの可能性について考察する。
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本研究では,人間の移動における長期的・短期的依存を捉え,予測対象の時間情報を用いて時間認識予測を可能にするために,歴史的滞留と文脈留置の概念を提案する。
さらに,LLMがより正確な予測を生成できるように,文脈包摂的プロンプトを設計する。
本手法の総合評価により, LLM-Mobは, 高精度かつ解釈可能な予測を行う上で優れており, 人体移動予測技術の進歩におけるLLMの未完成の可能性を強調している。
我々の研究は、複雑なドメイン固有モデルの構築から、言語命令を通じて正確な予測を行う汎用LLMへの移行という、人間のモビリティモデリングにおける重要なパラダイムシフトを示唆している。
この作業のコードはhttps://github.com/xlwang233/llm-mobで入手できる。
関連論文リスト
- Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - History, Development, and Principles of Large Language Models-An
Introductory Survey [48.27738446932852]
自然言語処理(NLP)の基盤となる言語モデル
数十年にわたる広範な研究を経て、言語モデリングは、初期統計言語モデル(SLM)から、大規模言語モデル(LLM)の現代的景観へと進歩してきた。
論文 参考訳(メタデータ) (2024-02-10T01:18:15Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Exploring Large Language Models for Human Mobility Prediction under
Public Events [25.903243511465092]
我々は,Large Language Models(LLMs)に基づく公共イベントにおける人体移動予測の枠組みを導入する。
LLMはテキストデータを処理し、最小限の例から学び、人間が読める説明を生成する。
ニューヨーク市のバークレイズセンターで、公開イベント情報とタクシー旅行データに基づいてケーススタディが実施されている。
論文 参考訳(メタデータ) (2023-11-29T04:25:15Z) - On the steerability of large language models toward data-driven personas [103.17413190093366]
協調フィルタリングに基づくデータ駆動型ペルソナ定義手法を提案する。
ユーザの連続表現を仮想トークンのシーケンスにマッピングするために,ソフトプロンプトモデルを学ぶ。
以上の結果から,本アルゴリズムはベースラインの収集よりも性能が優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Large Language Models for Spatial Trajectory Patterns Mining [9.70298494476926]
大型言語モデル(LLM)は、人間に似た方法で推論する能力を示した。
このことは、人間の移動における時間的パターンを解析する大きな可能性を示唆している。
我々の研究は、人間の空間的軌跡解析のためのLSMの強度と限界についての洞察を提供する。
論文 参考訳(メタデータ) (2023-10-07T23:21:29Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - Context-aware multi-head self-attentional neural network model for next
location prediction [19.640761373993417]
我々は、歴史的位置情報から位置パターンを学習するマルチヘッド自己注意ニューラルネットワーク(A)を利用する。
提案モデルが他の最先端予測モデルより優れていることを示す。
我々は,提案モデルが文脈を考慮した移動予測に不可欠であると信じている。
論文 参考訳(メタデータ) (2022-12-04T23:40:14Z) - Individual Mobility Prediction: An Interpretable Activity-based Hidden
Markov Approach [6.1938383008964495]
本研究では、個人移動予測のためのアクティビティに基づくモデリングフレームワークを開発する。
提案モデルでは,最先端の長期記憶モデル(LSTM)と同様の予測性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-11T16:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。