論文の概要: Evaluating the Effectiveness of Large Language Models in Representing and Understanding Movement Trajectories
- arxiv url: http://arxiv.org/abs/2409.00335v1
- Date: Sat, 31 Aug 2024 02:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 15:37:00.742935
- Title: Evaluating the Effectiveness of Large Language Models in Representing and Understanding Movement Trajectories
- Title(参考訳): 運動軌跡の表現・理解における大規模言語モデルの有効性の評価
- Authors: Yuhan Ji, Song Gao,
- Abstract要約: 本研究は,運動軌跡を表現するAI基盤モデルの能力を評価することに焦点を当てる。
大規模言語モデルの一つ (LLM) を用いて, トラジェクトリの文字列形式を符号化し, トラジェクトリデータ解析における LLM に基づく表現の有効性を評価する。
- 参考スコア(独自算出の注目度): 1.3658544194443192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research focuses on assessing the ability of AI foundation models in representing the trajectories of movements. We utilize one of the large language models (LLMs) (i.e., GPT-J) to encode the string format of trajectories and then evaluate the effectiveness of the LLM-based representation for trajectory data analysis. The experiments demonstrate that while the LLM-based embeddings can preserve certain trajectory distance metrics (i.e., the correlation coefficients exceed 0.74 between the Cosine distance derived from GPT-J embeddings and the Hausdorff and Dynamic Time Warping distances on raw trajectories), challenges remain in restoring numeric values and retrieving spatial neighbors in movement trajectory analytics. In addition, the LLMs can understand the spatiotemporal dependency contained in trajectories and have good accuracy in location prediction tasks. This research highlights the need for improvement in terms of capturing the nuances and complexities of the underlying geospatial data and integrating domain knowledge to support various GeoAI applications using LLMs.
- Abstract(参考訳): 本研究は,運動軌跡を表現するAI基盤モデルの能力を評価することに焦点を当てる。
我々は,大規模言語モデル(LLM)の1つ(GPT-J)を用いて,トラジェクトリの文字列形式を符号化し,トラジェクトリデータ解析におけるLLMに基づく表現の有効性を評価する。
実験により、LLMをベースとした埋め込みは、ある軌跡距離の測定値(つまり、GPT-J埋め込みから導かれるコサイン距離と原軌跡上のハウスドルフと動的時間ワープ距離との相関係数が0.74を超えること)を維持できるが、運動軌跡解析において数値値の復元と空間的近傍の回収に課題が残ることを示した。
さらに、LLMは軌跡に含まれる時空間依存性を理解し、位置予測タスクにおいて精度が高い。
本研究は,基礎となる地理空間データのニュアンスや複雑さを把握し,LLMを用いた様々なGeoAIアプリケーションをサポートするためにドメイン知識を統合することの必要性を強調した。
関連論文リスト
- EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - LLM-A*: Large Language Model Enhanced Incremental Heuristic Search on Path Planning [91.95362946266577]
経路計画はロボット工学と自律航法における基本的な科学的問題である。
A*やその変種のような伝統的なアルゴリズムは、パスの妥当性を保証することができるが、状態空間が大きくなるにつれて、計算とメモリの非効率が著しく低下する。
本稿では, A* の正確なパスフィニング能力と LLM のグローバルな推論能力とを相乗的に組み合わせた LLM ベースの経路計画法を提案する。
このハイブリッドアプローチは、特に大規模シナリオにおいて、パス妥当性の完全性を維持しながら、時間と空間の複雑さの観点からパスフィニング効率を向上させることを目的としている。
論文 参考訳(メタデータ) (2024-06-20T01:24:30Z) - T-JEPA: A Joint-Embedding Predictive Architecture for Trajectory Similarity Computation [6.844357745770191]
軌道類似性計算は,様々なアプリケーション間での空間データの移動パターンを解析するための重要な手法である。
本稿では,JEPA(Joint-Embedding Predictive Architecture)を用いた自己教師付き軌道類似性手法T-JEPAを提案する。
論文 参考訳(メタデータ) (2024-06-13T09:51:51Z) - Deciphering Human Mobility: Inferring Semantics of Trajectories with Large Language Models [10.841035090991651]
本稿では,ユーザの職業カテゴリー,活動,シーケンス,軌道記述の3つの重要な側面を通じて意味推論を定義する。
本稿では,トラジェクトリデータのセマンティック分析を活用するために,大規模言語モデルを用いたトラジェクトリ意味推論(TSI-LLM)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T08:55:48Z) - Embedding Trajectory for Out-of-Distribution Detection in Mathematical Reasoning [50.84938730450622]
数理推論におけるOOD検出にトラジェクトリボラティリティを用いたトラジェクトリベースのTVスコアを提案する。
本手法は, 数学的推論シナリオ下でのGLM上での従来のアルゴリズムよりも優れる。
提案手法は,複数選択質問などの出力空間における高密度特徴を持つアプリケーションに拡張することができる。
論文 参考訳(メタデータ) (2024-05-22T22:22:25Z) - Are You Being Tracked? Discover the Power of Zero-Shot Trajectory
Tracing with LLMs! [3.844253028598048]
LLMTrackは、ゼロショット軌道認識にLLMをどのように活用できるかを示すモデルである。
本研究では,屋内シナリオと屋外シナリオを特徴とする異なる軌跡を用いて,現実のデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2024-03-10T12:50:35Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - An Exploratory Assessment of LLM's Potential Toward Flight Trajectory
Reconstruction Analysis [3.3903227320938436]
本研究は,ADS-B(Automatic Dependent Surveillance-Broadcast)データを用いた飛行経路の再構築に焦点を当てた。
この結果から, 線形および曲線の飛行軌跡のフィルタリングおよび推定におけるモデルの有効性が示唆された。
研究の洞察は、飛行軌道再構築におけるLCMの約束と、航空・輸送分野にまたがる幅広い応用のための新たな道を開くことを明確にしている。
論文 参考訳(メタデータ) (2024-01-11T17:59:18Z) - Evaluating the Effectiveness of Large Language Models in Representing
Textual Descriptions of Geometry and Spatial Relations [2.8935588665357086]
本研究では,大規模言語モデル(LLM)の空間的関係の表現能力を評価することに焦点を当てた。
我々は GPT-2 や BERT などの LLM を用いて、よく知られたジオメトリのテキスト (WKT) フォーマットを符号化し、それらの埋め込みを分類器や回帰器に入力する。
実験では、LLMが生成した埋め込みは幾何型を保存し、いくつかの空間的関係(精度は73%まで)を捉えることができるが、数値を推定し、空間的関連オブジェクトを検索する際の課題が残っている。
論文 参考訳(メタデータ) (2023-07-05T03:50:08Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。