論文の概要: HydroVision: LiDAR-Guided Hydrometric Prediction with Vision Transformers and Hybrid Graph Learning
- arxiv url: http://arxiv.org/abs/2409.15213v1
- Date: Mon, 23 Sep 2024 16:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 14:02:53.156036
- Title: HydroVision: LiDAR-Guided Hydrometric Prediction with Vision Transformers and Hybrid Graph Learning
- Title(参考訳): ハイドロビジョン:視覚変換器とハイブリッドグラフ学習を用いたLiDAR誘導型ハイドロメトリック予測
- Authors: Naghmeh Shafiee Roudbari, Ursula Eicker, Charalambos Poullis, Zachary Patterson,
- Abstract要約: 水位予測は、水資源の管理、洪水予測、環境保護に不可欠である。
静的グラフ学習と動的グラフ学習を組み合わせたハイブリッドグラフ学習構造を提案する。
提案手法は, 予測誤差を1日平均10%削減し, 予測地平線を延長する改良を行った。
- 参考スコア(独自算出の注目度): 4.499833362998488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hydrometric forecasting is crucial for managing water resources, flood prediction, and environmental protection. Water stations are interconnected, and this connectivity influences the measurements at other stations. However, the dynamic and implicit nature of water flow paths makes it challenging to extract a priori knowledge of the connectivity structure. We hypothesize that terrain elevation significantly affects flow and connectivity. To incorporate this, we use LiDAR terrain elevation data encoded through a Vision Transformer (ViT). The ViT, which has demonstrated excellent performance in image classification by directly applying transformers to sequences of image patches, efficiently captures spatial features of terrain elevation. To account for both spatial and temporal features, we employ GRU blocks enhanced with graph convolution, a method widely used in the literature. We propose a hybrid graph learning structure that combines static and dynamic graph learning. A static graph, derived from transformer-encoded LiDAR data, captures terrain elevation relationships, while a dynamic graph adapts to temporal changes, improving the overall graph representation. We apply graph convolution in two layers through these static and dynamic graphs. Our method makes daily predictions up to 12 days ahead. Empirical results from multiple water stations in Quebec demonstrate that our method significantly reduces prediction error by an average of 10\% across all days, with greater improvements for longer forecasting horizons.
- Abstract(参考訳): 水位予測は、水資源の管理、洪水予測、環境保護に不可欠である。
水上ステーションは相互接続されており、この接続は他のステーションの計測に影響を及ぼす。
しかし、水流路の動的で暗黙的な性質は、接続構造に関する事前知識の抽出を困難にしている。
地形の標高が流れや接続性に大きく影響すると仮定する。
これを組み込むために、視覚変換器(ViT)を介して符号化されたLiDAR地形標高データを使用する。
画像パッチの配列にトランスフォーマーを直接適用することで、画像分類において優れた性能を発揮したViTは、地形標高の空間的特徴を効率的に捉えている。
空間的特徴と時間的特徴の両方を考慮し,グラフ畳み込みにより拡張されたGRUブロックを用いる。
静的グラフ学習と動的グラフ学習を組み合わせたハイブリッドグラフ学習構造を提案する。
変圧器エンコードされたLiDARデータから得られた静的グラフは、地形の標高関係をキャプチャし、動的グラフは時間変化に適応し、全体のグラフ表現を改善する。
静的グラフと動的グラフの2つの層にグラフ畳み込みを適用する。
当社の手法では, 日毎の予測を最大12日前倒しで行う。
ケベック州の複数の測水所から得られた実験結果から, 予測誤差を平均10倍に低減し, 予測地平線を延長した。
関連論文リスト
- SGFormer: Single-Layer Graph Transformers with Approximation-Free Linear Complexity [74.51827323742506]
グラフ上でのトランスフォーマーにおける多層アテンションの導入の必要性を評価する。
本研究では,一層伝播を一層伝播に還元できることを示す。
これは、グラフ上で強力で効率的なトランスフォーマーを構築するための新しい技術パスを示唆している。
論文 参考訳(メタデータ) (2024-09-13T17:37:34Z) - Learning Lane Graphs from Aerial Imagery Using Transformers [7.718401895021425]
この研究は、航空画像から後継車線グラフを生成する新しいアプローチを導入している。
後継レーングラフを最大長経路の集合としてフレーム化し,検出変換器(DETR)アーキテクチャを用いてそれらを予測する。
本手法の有効性を多種多様な大規模UrbanLaneGraphデータセットの広範な実験により実証する。
論文 参考訳(メタデータ) (2024-07-08T07:42:32Z) - Through the Dual-Prism: A Spectral Perspective on Graph Data
Augmentation for Graph Classification [71.36575018271405]
本稿では,DP-NoiseとDP-Maskを組み合わせたDual-Prism(DP)拡張手法を提案する。
低周波固有値の変動を保ちながら、拡張グラフを生成する際に、臨界特性を大規模に保存できることが判明した。
論文 参考訳(メタデータ) (2024-01-18T12:58:53Z) - TransGlow: Attention-augmented Transduction model based on Graph Neural
Networks for Water Flow Forecasting [4.915744683251151]
水量の水量予測は、水管理、洪水予測、洪水制御など様々な用途に有用である。
本稿では,GCRN(Graph Convolution Recurrent Neural Network)エンコーダデコーダの隠れ状態を増大させる時間予測モデルを提案する。
本稿では,河川,河川,湖上のカナダステーションのネットワークから,新たな水流のベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-12-10T18:23:40Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - Attention-based Dynamic Graph Convolutional Recurrent Neural Network for
Traffic Flow Prediction in Highway Transportation [0.6650227510403052]
高速道路交通における交通流予測を改善するために,注意に基づく動的グラフ畳み込みリカレントニューラルネットワーク(ADG-N)を提案する。
グラフ畳み込み演算のオーバーフィッティングを低減するために、高い相対ノードを強調する専用ゲートカーネルが完全なグラフ上に導入された。
論文 参考訳(メタデータ) (2023-09-13T13:57:21Z) - TransformerG2G: Adaptive time-stepping for learning temporal graph
embeddings using transformers [2.2120851074630177]
本研究では,不確実な定量化を伴うグラフ埋め込みモデルであるTransformerG2Gを開発し,時間的グラフの時間的ダイナミクスを学習する。
提案したTransformerG2Gモデルが従来のマルチステップ法より優れていることを示す。
注意重みを調べることで、時間的依存関係を解明し、影響力のある要素を特定し、グラフ構造内の複雑な相互作用についての洞察を得ることができる。
論文 参考訳(メタデータ) (2023-07-05T18:34:22Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。