論文の概要: Large Language Models for Spatial Trajectory Patterns Mining
- arxiv url: http://arxiv.org/abs/2310.04942v1
- Date: Sat, 7 Oct 2023 23:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 14:16:33.500623
- Title: Large Language Models for Spatial Trajectory Patterns Mining
- Title(参考訳): 空間軌道パターンマイニングのための大規模言語モデル
- Authors: Zheng Zhang, Hossein Amiri, Zhenke Liu, Andreas Z\"ufle, Liang Zhao
- Abstract要約: 大型言語モデル(LLM)は、人間に似た方法で推論する能力を示した。
このことは、人間の移動における時間的パターンを解析する大きな可能性を示唆している。
我々の研究は、人間の空間的軌跡解析のためのLSMの強度と限界についての洞察を提供する。
- 参考スコア(独自算出の注目度): 9.70298494476926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying anomalous human spatial trajectory patterns can indicate dynamic
changes in mobility behavior with applications in domains like infectious
disease monitoring and elderly care. Recent advancements in large language
models (LLMs) have demonstrated their ability to reason in a manner akin to
humans. This presents significant potential for analyzing temporal patterns in
human mobility. In this paper, we conduct empirical studies to assess the
capabilities of leading LLMs like GPT-4 and Claude-2 in detecting anomalous
behaviors from mobility data, by comparing to specialized methods. Our key
findings demonstrate that LLMs can attain reasonable anomaly detection
performance even without any specific cues. In addition, providing contextual
clues about potential irregularities could further enhances their prediction
efficacy. Moreover, LLMs can provide reasonable explanations for their
judgments, thereby improving transparency. Our work provides insights on the
strengths and limitations of LLMs for human spatial trajectory analysis.
- Abstract(参考訳): 異常な空間的軌跡パターンの同定は、感染性疾患のモニタリングや高齢者ケアといった領域における移動行動の動的変化を示す可能性がある。
近年の大型言語モデル(llm)の発展は、人間に似た方法で推論する能力を示している。
これは、人間の移動の時間パターンを分析する重要な可能性を示す。
本稿では, GPT-4 や Claude-2 などの LLM を先導して, 移動データから異常な動作を検出する能力を, 特殊手法と比較して評価する実験的検討を行った。
LLMは特定の手がかりを伴わずとも,適切な異常検出性能が得られることを示す。
さらに、潜在的な不規則性に関する文脈的手がかりを提供することで、予測の有効性をさらに高めることができる。
さらに、LCMは判断に合理的な説明を与え、透明性を向上させることができる。
本研究は,人間の空間軌道解析におけるLLMの強度と限界について考察する。
関連論文リスト
- Unveiling the Generalization Power of Fine-Tuned Large Language Models [81.70754292058258]
大規模言語モデル(LLM)に固有の内在的一般化能力に微調整が及ぼす影響について検討する。
本研究の主目的は、生成タスクと分類タスクを微調整したモデルが、異なる領域やタスクに一般化する際に異なる振る舞いを示すことである。
生成タスクの微調整中にコンテキスト内学習戦略を統合することで、モデルの一般化能力を高めることができる。
論文 参考訳(メタデータ) (2024-03-14T08:18:59Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Beyond Imitation: Generating Human Mobility from Context-aware Reasoning
with Large Language Models [21.745981410903845]
本稿では,移動行動を促す新しいモビリティ生成・アズ・ア・推論(MobiGeaR)フレームワークを提案する。
MobiGeaRはすべてのメトリクスで最先端のパフォーマンスを実現し、同時にトレーニングサンプルのサイズを大幅に削減します。
論文 参考訳(メタデータ) (2024-02-15T09:58:23Z) - Systematic Biases in LLM Simulations of Debates [14.12892960275563]
本研究では,人間の相互作用をシミュレーションする際のLLM(Large Language Models)の限界を明らかにする。
以上の結果から,LLMエージェントが特定の政治的視点から議論される一方で,モデル固有の社会的バイアスに適合する傾向が示唆された。
この傾向は、人間の間で確立された社会的ダイナミクスから逸脱しているように見える行動パターンをもたらす。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Discovery of the Hidden World with Large Language Models [100.38157787218044]
COAT: Causal representatiOn AssistanTについて紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
LLMはデータ値の収集に使用される追加情報を提供するよう指示することもできる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Probing Language Models from A Human Behavioral Perspective [24.109080140701188]
大規模言語モデル(LLM)は、現代のNLPにおいて支配的な基礎モデルとして登場した。
フィードフォワードネットワークやマルチヘッド・セルフアテンションなどの予測プロセスと内部メカニズムの理解は、いまだに未解明のままである。
論文 参考訳(メタデータ) (2023-10-08T16:16:21Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z) - Where Would I Go Next? Large Language Models as Human Mobility
Predictors [21.100313868232995]
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-29T10:24:23Z) - Do Emergent Abilities Exist in Quantized Large Language Models: An
Empirical Study [90.34226812493083]
本研究の目的は,LLMを小言語モデルと区別する重要な特徴である現象能力に対する量子化の影響を検討することである。
実験により、これらの創発能力は4ビット量子化モデルに残っており、2ビットモデルは深刻な性能劣化に直面していることがわかった。
低ビットモデルの性能向上のために,(1) 部品(またはサブ構造)が量子化に敏感である場合の微視的影響解析,(2) モデル微視化による性能補償の2つの実験を行った。
論文 参考訳(メタデータ) (2023-07-16T15:11:01Z) - Predicting Human Mobility via Self-supervised Disentanglement Learning [21.61423193132924]
本稿では,次のPOI予測問題に対処するため,SSDLと呼ばれる新しい解を提案する。
本研究では,人間の本質的な周期性と常に変化する意図の理解を高めるために,二つの現実的な軌道拡張手法を提案する。
4つの実世界のデータセットで実施された大規模な実験により、提案したSSDLは最先端のアプローチよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-11-17T16:17:22Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。