論文の概要: Large Language Models for Single-Step and Multi-Step Flight Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2501.17459v1
- Date: Wed, 29 Jan 2025 07:35:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:48.226410
- Title: Large Language Models for Single-Step and Multi-Step Flight Trajectory Prediction
- Title(参考訳): 単段階・多段階飛行軌道予測のための大規模言語モデル
- Authors: Kaiwei Luo, Jiliu Zhou,
- Abstract要約: 本研究では,大型言語モデル(LLM)を用いた飛行軌道予測の先駆的手法として,言語モデリング問題として再検討した。
具体的には、航空機の状態とADS-B飛行データから航空機を抽出し、プロンプトベースのデータセットを構築する。
データセットはLSMを微調整するために使用され、正確な予測のために複雑な時間パターンを学習することができる。
- 参考スコア(独自算出の注目度): 5.666505394825739
- License:
- Abstract: Flight trajectory prediction is a critical time series task in aviation. While deep learning methods have shown significant promise, the application of large language models (LLMs) to this domain remains underexplored. This study pioneers the use of LLMs for flight trajectory prediction by reframing it as a language modeling problem. Specifically, We extract features representing the aircraft's position and status from ADS-B flight data to construct a prompt-based dataset, where trajectory waypoints are converted into language tokens. The dataset is then employed to fine-tune LLMs, enabling them to learn complex spatiotemporal patterns for accurate predictions. Comprehensive experiments demonstrate that LLMs achieve notable performance improvements in both single-step and multi-step predictions compared to traditional methods, with LLaMA-3.1 model achieving the highest overall accuracy. However, the high inference latency of LLMs poses a challenge for real-time applications, underscoring the need for further research in this promising direction.
- Abstract(参考訳): 飛行軌道予測(英: Flight trajectory prediction)は、航空における重要な時系列タスクである。
ディープラーニングの手法は大きな可能性を秘めているが、この領域への大規模言語モデル(LLM)の適用はいまだに未検討である。
本研究は,LLMを用いた飛行軌道予測の先駆的手法である。
具体的には、ADS-B飛行データから航空機の位置と状態を表す特徴を抽出し、軌道方向のウェイポイントを言語トークンに変換するプロンプトベースのデータセットを構築する。
データセットはLLMの微調整に使用され、正確な予測のために複雑な時空間パターンを学習することができる。
総合的な実験により、LLaMA-3.1モデルは、従来の手法と比較して、単一ステップと複数ステップの予測において顕著な性能向上を実現している。
しかし、LLMの高推論レイテンシは、リアルタイムアプリケーションにとっての課題であり、この将来性のある方向へのさらなる研究の必要性を暗示している。
関連論文リスト
- Evaluating the Effectiveness of Large Language Models in Representing and Understanding Movement Trajectories [1.3658544194443192]
本研究は,運動軌跡を表現するAI基盤モデルの能力を評価することに焦点を当てる。
大規模言語モデルの一つ (LLM) を用いて, トラジェクトリの文字列形式を符号化し, トラジェクトリデータ解析における LLM に基づく表現の有効性を評価する。
論文 参考訳(メタデータ) (2024-08-31T02:57:25Z) - Beam Prediction based on Large Language Models [51.45077318268427]
ミリ波(mmWave)通信は次世代無線ネットワークに期待できるが、パス損失は大きい。
長短期記憶(LSTM)のような従来のディープラーニングモデルでは、ビーム追跡精度が向上するが、ロバスト性や一般化が不足している。
本稿では,大規模言語モデル(LLM)を用いて,ビーム予測の堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-08-16T12:40:01Z) - A Comprehensive Evaluation of Large Language Models on Temporal Event Forecasting [45.0261082985087]
時間的事象予測のための大規模言語モデル(LLM)を総合的に評価する。
LLMの入力に生テキストを直接統合しても、ゼロショット補間性能は向上しないことがわかった。
対照的に、特定の複雑なイベントや微調整LDMに生テキストを組み込むことで、性能が大幅に向上する。
論文 参考訳(メタデータ) (2024-07-16T11:58:54Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - Self-Exploring Language Models: Active Preference Elicitation for Online Alignment [88.56809269990625]
本研究では, 分布域外領域を積極的に探索するために, 潜在的に高次応答に対して楽観的に偏りを呈する2段階的客観性を提案する。
実験の結果,Zephyr-7B-SFTとLlama-3-8B-Instructモデルで微調整した場合,SELM(Self-Exploring Language Models)は命令追従ベンチマークの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-29T17:59:07Z) - Traj-LLM: A New Exploration for Empowering Trajectory Prediction with Pre-trained Large Language Models [12.687494201105066]
本稿では,Traj-LLMを提案する。Large Language Models (LLMs) を用いて,エージェントの過去の/観測された軌跡やシーンセマンティクスから将来の動きを生成する可能性について検討する。
LLMの強力な理解能力は、ハイレベルなシーン知識とインタラクティブな情報のスペクトルを捉えている。
人為的な車線焦点認知機能を模倣し,先駆的なMambaモジュールを用いた車線認識確率論的学習を導入する。
論文 参考訳(メタデータ) (2024-05-08T09:28:04Z) - Spatial-Temporal Large Language Model for Traffic Prediction [21.69991612610926]
交通予測のための時空間大言語モデル(ST-LLM)を提案する。
ST-LLMでは,各位置の時間ステップをトークンとして定義し,空間的位置とグローバルな時間的パターンを学習するための空間的時間的埋め込みを設計する。
実トラフィックデータセットの実験において、ST-LLMは最先端のモデルより優れた空間時空間学習器である。
論文 参考訳(メタデータ) (2024-01-18T17:03:59Z) - An Exploratory Assessment of LLM's Potential Toward Flight Trajectory
Reconstruction Analysis [3.3903227320938436]
本研究は,ADS-B(Automatic Dependent Surveillance-Broadcast)データを用いた飛行経路の再構築に焦点を当てた。
この結果から, 線形および曲線の飛行軌跡のフィルタリングおよび推定におけるモデルの有効性が示唆された。
研究の洞察は、飛行軌道再構築におけるLCMの約束と、航空・輸送分野にまたがる幅広い応用のための新たな道を開くことを明確にしている。
論文 参考訳(メタデータ) (2024-01-11T17:59:18Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。