論文の概要: TrajCogn: Leveraging LLMs for Cognizing Movement Patterns and Travel Purposes from Trajectories
- arxiv url: http://arxiv.org/abs/2405.12459v2
- Date: Fri, 9 Aug 2024 07:54:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 20:10:25.536099
- Title: TrajCogn: Leveraging LLMs for Cognizing Movement Patterns and Travel Purposes from Trajectories
- Title(参考訳): TrajCogn: 移動パターン認識のためのLLMの活用と軌道からの旅行目的
- Authors: Zeyu Zhou, Yan Lin, Haomin Wen, Qisen Xu, Shengnan Guo, Jilin Hu, Youfang Lin, Huaiyu Wan,
- Abstract要約: S時間軌道は様々なデータマイニング作業において重要である。
異なるタスクを高精度に行う多目的軌跡学習法を開発することが重要である。
モデルキャパシティの制限と、トラジェクトリデータセットの品質とスケールのため、これは難しい。
- 参考スコア(独自算出の注目度): 24.44686757572976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatio-temporal trajectories are crucial in various data mining tasks. It is important to develop a versatile trajectory learning method that performs different tasks with high accuracy. This involves effectively extracting two core aspects of information--movement patterns and travel purposes--from trajectories. However, this is challenging due to limitations in model capacity and the quality and scale of trajectory datasets. Meanwhile, large language models (LLMs) have shown great success in versatility by training on large-scale, high-quality datasets. Given the similarities between trajectories and sentences, there's potential to leverage LLMs to develop an effective trajectory learning method. However, standard LLMs are not designed to handle the unique spatio-temporal features of trajectories and cannot extract movement patterns and travel purposes. To address these challenges, we propose a model called TrajCogn that effectively utilizes LLMs to model trajectories. TrajCogn leverages the strengths of LLMs to create a versatile trajectory learning approach while addressing the limitations of standard LLMs. First, TrajCogn incorporates a novel trajectory semantic embedder that enables LLMs to process spatio-temporal features and extract movement patterns and travel purposes. Second, TrajCogn introduces a new trajectory prompt that integrates these patterns and purposes into LLMs, allowing the model to adapt to various tasks. Extensive experiments on two real-world datasets and two representative tasks demonstrate that TrajCogn successfully achieves its design goals. Codes are available at https://anonymous.4open.science/r/TrajCogn-5021.
- Abstract(参考訳): 時空間軌道は様々なデータマイニング作業において重要である。
異なるタスクを高精度に行う多目的軌跡学習法を開発することが重要である。
これは、トラジェクトリから、情報移動パターンと旅行目的の2つの中核的な側面を効果的に抽出することを含む。
しかし、モデルキャパシティの制限とトラジェクトリデータセットの品質とスケールのため、これは難しい。
一方、大規模な言語モデル(LLM)は、大規模で高品質なデータセットをトレーニングすることで、汎用性に大きな成功を収めている。
軌跡と文の類似性を考えると、LLMを利用して効果的な軌跡学習法を開発する可能性がある。
しかし、標準LLMは軌跡の時空間的特徴を扱うように設計されておらず、移動パターンや旅行目的を抽出することができない。
これらの課題に対処するために,LLMを効果的に利用して軌道をモデル化するTrajCognというモデルを提案する。
TrajCogn は LLM の強みを活用して,標準 LLM の限界に対処しながら,多目的な軌道学習アプローチを構築する。
まず、TrajCognは、LLMが時空間的特徴を処理し、移動パターンと旅行目的を抽出できる新しい軌道意味埋め込み装置を組み込んでいる。
第二にTrajCognは、これらのパターンと目的をLLMに統合し、モデルがさまざまなタスクに適応できるようにする新しいトラジェクトリプロンプトを導入した。
2つの実世界のデータセットと2つの代表的なタスクに関する大規模な実験は、TrajCognがその設計目標を達成できたことを示している。
コードはhttps://anonymous.4open.science/r/TrajCogn-5021で公開されている。
関連論文リスト
- MLLM as Retriever: Interactively Learning Multimodal Retrieval for Embodied Agents [28.419007116364668]
MLLMエージェントは、マルチモーダルなタスク関連軌道データを取得することで、複雑なエンボディされたタスクの可能性を実証する。
現在の検索手法は、主に軌跡におけるテキストや視覚的手がかりの表面レベルでの類似性に注目し、その特定のタスクに対する有効性を無視している。
本稿では,MLLMレシーバを微調整するためのインタラクションデータを活用することで,組込みエージェントの性能を向上させる新しい手法であるMLLM as ReTriever (MART)を提案する。
論文 参考訳(メタデータ) (2024-10-04T14:10:39Z) - NVLM: Open Frontier-Class Multimodal LLMs [64.00053046838225]
NVLM 1.0は、フロンティアクラスのマルチモーダル言語モデル(LLM)のファミリーであり、視覚言語タスクの最先端結果を実現する。
トレーニング効率とマルチモーダル推論能力を両立させる新しいアーキテクチャを提案する。
我々は、NVLM-1.0モデルのための生産級マルチモーダリティを開発し、視覚言語タスクに優れる。
論文 参考訳(メタデータ) (2024-09-17T17:59:06Z) - Evaluating the Effectiveness of Large Language Models in Representing and Understanding Movement Trajectories [1.3658544194443192]
本研究は,運動軌跡を表現するAI基盤モデルの能力を評価することに焦点を当てる。
大規模言語モデルの一つ (LLM) を用いて, トラジェクトリの文字列形式を符号化し, トラジェクトリデータ解析における LLM に基づく表現の有効性を評価する。
論文 参考訳(メタデータ) (2024-08-31T02:57:25Z) - PTrajM: Efficient and Semantic-rich Trajectory Learning with Pretrained Trajectory-Mamba [22.622613591771152]
車両軌道は様々な現実世界の用途に重要な移動情報を提供する。
移動や旅行目的を含む豊かな意味情報を効率的に抽出する軌道学習手法を開発することが不可欠である。
本稿では,効率的な意味豊かな車両軌道学習法であるPTrajMを提案する。
論文 参考訳(メタデータ) (2024-08-09T07:48:51Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - Are You Being Tracked? Discover the Power of Zero-Shot Trajectory
Tracing with LLMs! [3.844253028598048]
LLMTrackは、ゼロショット軌道認識にLLMをどのように活用できるかを示すモデルである。
本研究では,屋内シナリオと屋外シナリオを特徴とする異なる軌跡を用いて,現実のデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2024-03-10T12:50:35Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。