論文の概要: Typhoon Intensity Prediction with Vision Transformer
- arxiv url: http://arxiv.org/abs/2311.16450v1
- Date: Tue, 28 Nov 2023 03:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 20:41:37.133532
- Title: Typhoon Intensity Prediction with Vision Transformer
- Title(参考訳): 視覚トランスフォーマによる台風強度予測
- Authors: Huanxin Chen, Pengshuai Yin, Huichou Huang, Qingyao Wu, Ruirui Liu and
Xiatian Zhu
- Abstract要約: 台風強度を正確に予測するために「台風強度変換器(Tint)」を導入する。
Tintは、層ごとにグローバルな受容野を持つ自己認識機構を使用する。
公開されている台風ベンチマークの実験は、Tintの有効性を検証する。
- 参考スコア(独自算出の注目度): 51.84456610977905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting typhoon intensity accurately across space and time is crucial for
issuing timely disaster warnings and facilitating emergency response. This has
vast potential for minimizing life losses and property damages as well as
reducing economic and environmental impacts. Leveraging satellite imagery for
scenario analysis is effective but also introduces additional challenges due to
the complex relations among clouds and the highly dynamic context. Existing
deep learning methods in this domain rely on convolutional neural networks
(CNNs), which suffer from limited per-layer receptive fields. This limitation
hinders their ability to capture long-range dependencies and global contextual
knowledge during inference. In response, we introduce a novel approach, namely
"Typhoon Intensity Transformer" (Tint), which leverages self-attention
mechanisms with global receptive fields per layer. Tint adopts a
sequence-to-sequence feature representation learning perspective. It begins by
cutting a given satellite image into a sequence of patches and recursively
employs self-attention operations to extract both local and global contextual
relations between all patch pairs simultaneously, thereby enhancing per-patch
feature representation learning. Extensive experiments on a publicly available
typhoon benchmark validate the efficacy of Tint in comparison with both
state-of-the-art deep learning and conventional meteorological methods. Our
code is available at https://github.com/chen-huanxin/Tint.
- Abstract(参考訳): 時空間をまたいで台風の強度を正確に予測することは,災害警報の発行や緊急対応の容易化に不可欠である。
これは、生命の損失や財産の損傷を最小化し、経済や環境への影響を低減させる大きな可能性を持っている。
シナリオ分析に衛星画像を活用することは有効であるが、クラウド間の複雑な関係と高度にダイナミックなコンテキストによって、追加の課題も生じている。
この領域の既存のディープラーニング手法は畳み込みニューラルネットワーク(CNN)に依存している。
この制限は、推論中に長距離依存関係とグローバルコンテキスト知識をキャプチャする能力を妨げます。
そこで,我々は,層ごとに大域的な受容場を有する自己着脱機構を利用する新しい手法である「チフロン強度トランスフォーマー(tint)」を提案する。
Tintはシーケンス間特徴表現学習の観点を採用する。
まず、与えられた衛星画像を一連のパッチに切り分け、再帰的に自己注意操作を使用して、すべてのパッチペア間の局所的およびグローバルなコンテキスト関係を同時に抽出し、パッチごとの特徴表現学習を強化する。
タイフーンベンチマークの広範な実験は、tintの有効性を最先端のディープラーニングと従来の気象手法の両方と比較している。
私たちのコードはhttps://github.com/chen-huanxin/tint.comで利用可能です。
関連論文リスト
- Spatially Constrained Transformer with Efficient Global Relation Modelling for Spatio-Temporal Prediction [2.016553603539141]
ST-SampleNetは、CNNと自己アテンション機構を組み合わせたトランスフォーマーベースのアーキテクチャで、ローカルとグローバル両方の関係をキャプチャする。
実験により,計算コストの40%削減を実現した。
論文 参考訳(メタデータ) (2024-11-11T10:03:59Z) - Teaching Tailored to Talent: Adverse Weather Restoration via Prompt Pool and Depth-Anything Constraint [15.733168323227174]
予測不能な気象入力を処理するために,新しいパイプラインT3-DiffWeatherを導入する。
我々は、サブプロンプトを自律的に組み合わせて天気予報を構築するプロンプトプールを採用している。
提案手法は,様々な合成および実世界のデータセットにまたがって最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-24T04:46:18Z) - Spatio-Temporal Turbulence Mitigation: A Translational Perspective [13.978156774471744]
深部大気乱流低減ネットワーク(DATUM)について紹介する。
DATUMは、古典的なアプローチからディープラーニングアプローチへの移行において、大きな課題を克服することを目指している。
大規模なトレーニングデータセットであるATSynは、実際の乱流における一般化を可能にする共発明として提示される。
論文 参考訳(メタデータ) (2024-01-08T21:35:05Z) - AdvART: Adversarial Art for Camouflaged Object Detection Attacks [7.7889972735711925]
本稿では,自然主義的かつ不明瞭な敵パッチを生成するための新しいアプローチを提案する。
本手法は,パッチ内の画素値を直接操作することで,高い柔軟性と広い空間を実現する。
我々の攻撃は、デジタルワールドとエッジのスマートカメラでそれぞれ91.19%と72%の優れた成功率を達成する。
論文 参考訳(メタデータ) (2023-03-03T06:28:05Z) - STJLA: A Multi-Context Aware Spatio-Temporal Joint Linear Attention
Network for Traffic Forecasting [7.232141271583618]
非効率な時空間継手線形注意(SSTLA)と呼ばれる交通予測のための新しいディープラーニングモデルを提案する。
SSTLAは、全時間ノード間のグローバル依存を効率的に捉えるために、ジョイントグラフに線形注意を適用する。
実世界の2つの交通データセットであるイングランドとテンポラル7の実験は、我々のSTJLAが最先端のベースラインよりも9.83%と3.08%の精度でMAE測定を達成できることを示した。
論文 参考訳(メタデータ) (2021-12-04T06:39:18Z) - TFill: Image Completion via a Transformer-Based Architecture [69.62228639870114]
画像補完を無方向性シーケンス対シーケンス予測タスクとして扱うことを提案する。
トークン表現には,小かつ重複しないRFを持つ制限型CNNを用いる。
第2フェーズでは、可視領域と発生領域の外観整合性を向上させるために、新しい注意認識層(aal)を導入する。
論文 参考訳(メタデータ) (2021-04-02T01:42:01Z) - Augmented Transformer with Adaptive Graph for Temporal Action Proposal
Generation [79.98992138865042]
TAPGの長期的および局所的時間的コンテキストを利用するための適応グラフネットワーク(ATAG)を備えた拡張トランスを提案する。
具体的には、スニペット動作損失と前部ブロックを装着し、拡張トランスと呼ばれるバニラトランスを強化する。
位置情報と隣接特徴の差異をマイニングすることで局所時間文脈を構築するための適応型グラフ畳み込みネットワーク(gcn)を提案する。
論文 参考訳(メタデータ) (2021-03-30T02:01:03Z) - DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning [65.94499390875046]
DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-03-30T13:10:32Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。