論文の概要: Flight Demand Forecasting with Transformers
- arxiv url: http://arxiv.org/abs/2111.04471v1
- Date: Thu, 4 Nov 2021 22:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:04:00.775167
- Title: Flight Demand Forecasting with Transformers
- Title(参考訳): 変圧器による航空需要予測
- Authors: Liya Wang, Amy Mykityshyn, Craig Johnson, Jillian Cheng
- Abstract要約: この研究は、より良いデータソースと堅牢な予測アルゴリズムという2つの重要な側面から予測精度を改善することを目指している。
変圧器の成功に触発された我々は,複数の地平線における戦略的出発需要を予測するために,この手法を採用した。
ケーススタディでは、TFTは従来の予測手法よりも大きなマージンで優れた性能を発揮することが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Transformers have become the de-facto standard in the natural language
processing (NLP) field. They have also gained momentum in computer vision and
other domains. Transformers can enable artificial intelligence (AI) models to
dynamically focus on certain parts of their input and thus reason more
effectively. Inspired by the success of transformers, we adopted this technique
to predict strategic flight departure demand in multiple horizons. This work
was conducted in support of a MITRE-developed mobile application, Pacer, which
displays predicted departure demand to general aviation (GA) flight operators
so they can have better situation awareness of the potential for departure
delays during busy periods. Field demonstrations involving Pacer's previously
designed rule-based prediction method showed that the prediction accuracy of
departure demand still has room for improvement. This research strives to
improve prediction accuracy from two key aspects: better data sources and
robust forecasting algorithms. We leveraged two data sources, Aviation System
Performance Metrics (ASPM) and System Wide Information Management (SWIM), as
our input. We then trained forecasting models with temporal fusion transformer
(TFT) for five different airports. Case studies show that TFTs can perform
better than traditional forecasting methods by large margins, and they can
result in better prediction across diverse airports and with better
interpretability.
- Abstract(参考訳): トランスフォーマーは自然言語処理(NLP)分野においてデファクトスタンダードになっている。
コンピュータビジョンやその他の分野でも勢いを増している。
トランスフォーマーは、人工知能(AI)モデルが入力の特定の部分に動的に集中できるので、より効果的に推論できる。
変圧器の成功に触発された我々は,複数の地平線における戦略的出発需要を予測するために,この手法を採用した。
この研究はmitreが開発したモバイルアプリケーションであるpaper(英語版)をサポートしており、多忙な期間に出発遅延の可能性をよりよく認識できるように、一般航空(ga)の運航者への出発需要を予測する。
パサーが以前設計した規則に基づく予測手法を含む実演では、出発需要の予測精度は改善の余地があることを示した。
本研究は,データソースの改善とロバスト予測アルゴリズムの2つの重要な側面から予測精度の向上を目指している。
入力には、ASPM(Aviation System Performance Metrics)とSWIM(System Wide Information Management)という2つのデータソースを活用しました。
その後,5つの空港でtft(temporal fusion transformer)を用いた予測モデルを訓練した。
ケーススタディでは、TFTは従来の予測方法よりも大きなマージンで優れた性能を示し、様々な空港でより良い予測を行い、より良い解釈性が得られる。
関連論文リスト
- Unveil Benign Overfitting for Transformer in Vision: Training Dynamics, Convergence, and Generalization [88.5582111768376]
本研究では, ソフトマックスを用いた自己保持層と, 勾配勾配下での完全連結層からなるトランスフォーマーの最適化について検討した。
この結果から,データモデルにおける信号対雑音比に基づいて,小さなテストエラー位相と大規模なテストエラー状態とを区別できるシャープ条件を確立した。
論文 参考訳(メタデータ) (2024-09-28T13:24:11Z) - Amelia: A Large Model and Dataset for Airport Surface Movement Forecasting [12.684598713362007]
Amelia-48 は System Wide Information Management (SWIM) Surface Movement Event Service (SMES) を用いて収集された大規模な表面運動データセットである。
Amelia-TFは、292日間にトレーニングされた、トランスフォーマーに基づく大規模マルチエージェントマルチエージェントトラジェクトリ予測モデルである。
未確認の空港では、異なる予測水平線長、エゴエージェント選択戦略、トレーニングレシピを示す実験が実施されている。
論文 参考訳(メタデータ) (2024-07-30T20:50:48Z) - Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - Airport Delay Prediction with Temporal Fusion Transformers [24.280246809961945]
本研究は,米国最上位30空港において,新しい時空核融合変圧器モデルを適用し,第4四半期の空港到着遅延を予測することを提案する。
我々のモデルには、空港の需要と容量予測、歴史的な空港の運転効率情報、空港の風と可視性、さらには気象や交通条件などが含まれる。
論文 参考訳(メタデータ) (2024-05-14T03:27:15Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Multi-Airport Delay Prediction with Transformers [0.0]
TFT(Temporal Fusion Transformer)は、複数の空港での出発と到着の遅れを同時に予測するために提案された。
このアプローチは、予測時に既知の入力の複雑な時間的ダイナミクスをキャプチャし、選択された遅延メトリクスを4時間先まで予測することができる。
論文 参考訳(メタデータ) (2021-11-04T21:58:11Z) - An Empirical Study of Training End-to-End Vision-and-Language
Transformers [50.23532518166621]
我々はMETER(textbfMultimodal textbfEnd-to-end textbfTransformtextbfER)を提案する。
具体的には、視覚エンコーダ(例えば、CLIP-ViT、Swin変換器)、テキストエンコーダ(例えば、RoBERTa、DeBERTa)、マルチモーダルフュージョン(例えば、マージアテンション対共振器)である。
論文 参考訳(メタデータ) (2021-11-03T17:55:36Z) - Transformers for prompt-level EMA non-response prediction [62.41658786277712]
エコロジー・モメンタリー・アセスメント(Ecological Momentary Assessments、EMA)は、認知状態、影響、行動、環境要因を測定するための重要な心理的データ源である。
参加者がEMAプロンプトに反応しない非応答は、内因性問題である。
非応答を正確に予測できる能力は、EMAのデリバリを改善し、コンプライアンスの介入を開発するために利用することができる。
論文 参考訳(メタデータ) (2021-11-01T18:38:47Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Spatio-Temporal Data Mining for Aviation Delay Prediction [15.621546618044173]
本研究では,商業飛行における長期記憶ネットワーク(LSTM)に基づく航空機遅延予測システムを提案する。
このシステムは、自動監視放送(ADS-B)メッセージから歴史的軌跡から学習する。
従来と比べ,大規模なハブ空港ではより堅牢で正確であることが実証された。
論文 参考訳(メタデータ) (2021-03-20T18:37:06Z) - Deep Learning for Flight Demand Forecasting [0.0]
この研究は、より良いデータソースと堅牢な予測アルゴリズムという2つの重要な側面から予測精度を改善することを目指している。
我々は,シーケンス・ツー・シークエンス(seq2seq)とシークエンス・シークエンス(seq2seq)のDL手法を用いて予測モデルを訓練した。
より優れたデータソースによって、注意を持つseq2seqは、古典的自己回帰(AR)予測法と比較して平均2乗誤差(mse)を60%以上削減することができる。
論文 参考訳(メタデータ) (2020-11-06T16:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。