論文の概要: Interpretable Fine-Tuning and Error Indication for Graph Neural Network Surrogate Models
- arxiv url: http://arxiv.org/abs/2311.07548v3
- Date: Sat, 29 Jun 2024 21:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-02 17:30:47.182446
- Title: Interpretable Fine-Tuning and Error Indication for Graph Neural Network Surrogate Models
- Title(参考訳): グラフニューラルネットワークサロゲートモデルに対する解釈可能な微調整と誤り表現
- Authors: Shivam Barwey, Hojin Kim, Romit Maulik,
- Abstract要約: 本研究は,グラフニューラルネットワーク(GNN)の解釈可能な微調整戦略を導入する。
最終結果は、予測タスクに本質的に関連付けられている部分グラフに対応する物理空間内の領域を分離する強化された微調整モデルである。
微調整されたGNNは、推論中に予測される予測エラーの大部分に対応するグラフノードを特定するためにも使用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-driven surrogate modeling has surged in capability in recent years with the emergence of graph neural networks (GNNs), which can operate directly on mesh-based representations of data. The goal of this work is to introduce an interpretable fine-tuning strategy for GNNs, with application to unstructured mesh-based fluid dynamics modeling. The end result is an enhanced fine-tuned model that isolates regions in physical space, corresponding to sub-graphs, that are intrinsically linked to the forecasting task while retaining the predictive capability of the baseline. These structures, identified by the fine-tuned GNNs, are adaptively produced in the forward pass and serve as explainable links between the baseline model architecture, the optimization goal, and known problem-specific physics. Additionally, through a regularization procedure, the fine-tuned GNNs can also be used to identify, during inference, graph nodes that correspond to a majority of the anticipated forecasting error, adding a novel interpretable error-tagging capability to baseline models. Demonstrations are performed using unstructured flow field data sourced from flow over a backward-facing step at high Reynolds numbers, with geometry extrapolations demonstrated for ramp and wall-mounted cube configurations.
- Abstract(参考訳): データ駆動サロゲートモデリングは、グラフニューラルネットワーク(GNN)の出現により、近年、データメッシュベースの表現を直接操作する能力が高まっている。
本研究の目的は、非構造化メッシュベースの流体力学モデリングに適用可能な、GNNの解釈可能な微調整戦略を導入することである。
最終結果は、ベースラインの予測能力を保ちながら予測タスクに本質的に関連付けられているサブグラフに対応する物理空間内の領域を分離する強化された微調整モデルである。
これらの構造は、細調整されたGNNによって同定され、フォワードパスで適応的に生成され、ベースラインモデルアーキテクチャ、最適化目標、既知の問題固有物理の間の説明可能なリンクとして機能する。
さらに、正規化手順を通じて、微調整されたGNNを使用して、予測される予測エラーの大多数に対応するグラフノードを推論時に識別し、ベースラインモデルに新たな解釈可能なエラータグ機能を追加することもできる。
高レイノルズ数での後方方向のステップを流れる流れから導出される非構造流れ場データを用いて実証を行い、傾斜や壁面上の立方体構成の幾何学的外挿を実証した。
関連論文リスト
- Identification of vortex in unstructured mesh with graph neural networks [0.0]
本稿では,非構造化メッシュ上でのCFD結果の渦を特定するために,U-Netアーキテクチャを用いたグラフニューラルネットワーク(GNN)に基づくモデルを提案する。
2次元CFDメッシュにおける渦領域をラベル付けするための渦自動ラベル法を提案する。
論文 参考訳(メタデータ) (2023-11-11T12:10:16Z) - MuseGNN: Interpretable and Convergent Graph Neural Network Layers at
Scale [15.93424606182961]
本稿では, ある設定における収束保証によって導かれる, サンプリングベースエネルギー関数と拡張性のあるGNN層を反復的に削減する手法を提案する。
また、これらの設計に基づいて完全なGNNアーキテクチャをインスタンス化し、1TBを超える最大公用ノード分類ベンチマークに適用した場合の競合精度とスケーラビリティを実現する。
論文 参考訳(メタデータ) (2023-10-19T04:30:14Z) - Re-Think and Re-Design Graph Neural Networks in Spaces of Continuous
Graph Diffusion Functionals [7.6435511285856865]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークや生体システムのようなドメインで広く使われている。
GNNのローカリティ仮定は、グラフ内の長距離依存関係とグローバルパターンをキャプチャする能力を損なう。
本稿では,ブラヒクロニスト問題から着想を得た変分解析に基づく新しい帰納バイアスを提案する。
論文 参考訳(メタデータ) (2023-07-01T04:44:43Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Dynamic Graph Neural Network with Adaptive Edge Attributes for Air
Quality Predictions [12.336689498639366]
本稿では,メッセージパッシングネットワーク上での適応エッジ属性(DGN-AEA)を用いた動的グラフニューラルネットワークを提案する。
エッジを確立するための事前情報とは異なり、事前情報なしでエンドツーエンドのトレーニングを通じて適応的なエッジ情報を得ることができる。
論文 参考訳(メタデータ) (2023-02-20T13:45:55Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Continuous-Depth Neural Models for Dynamic Graph Prediction [16.89981677708299]
連続深度グラフニューラルネットワーク(GNN)の枠組みを紹介する。
ニューラルグラフ微分方程式(ニューラルグラフ微分方程式)は、GNNに対抗して形式化される。
その結果、遺伝的制御ネットワークにおけるトラフィック予測や予測など、アプリケーション全体にわたって提案されたモデルの有効性が証明された。
論文 参考訳(メタデータ) (2021-06-22T07:30:35Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。