論文の概要: Interpretable Fine-Tuning for Graph Neural Network Surrogate Models
- arxiv url: http://arxiv.org/abs/2311.07548v1
- Date: Mon, 13 Nov 2023 18:37:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 12:54:34.840961
- Title: Interpretable Fine-Tuning for Graph Neural Network Surrogate Models
- Title(参考訳): グラフニューラルネットワークサロゲートモデルの解釈可能な微調整
- Authors: Shivam Barwey and Romit Maulik
- Abstract要約: 本研究は,グラフニューラルネットワーク(GNN)の解釈可能な微調整戦略を導入する。
その結果、トレーニング済みのベースラインGNNに解釈性を追加する、微調整のGNNとなる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-based surrogate modeling has surged in capability in recent years with
the emergence of graph neural networks (GNNs), which can operate directly on
mesh-based representations of data. The goal of this work is to introduce an
interpretable fine-tuning strategy for GNNs, with application to unstructured
mesh-based fluid dynamics modeling. The end result is a fine-tuned GNN that
adds interpretability to a pre-trained baseline GNN through an adaptive
sub-graph sampling strategy that isolates regions in physical space
intrinsically linked to the forecasting task, while retaining the predictive
capability of the baseline. The structures identified by the fine-tuned GNNs,
which are adaptively produced in the forward pass as explicit functions of the
input, serve as an accessible link between the baseline model architecture, the
optimization goal, and known problem-specific physics. Additionally, through a
regularization procedure, the fine-tuned GNNs can also be used to identify,
during inference, graph nodes that correspond to a majority of the anticipated
forecasting error, adding a novel interpretable error-tagging capability to
baseline models. Demonstrations are performed using unstructured flow data
sourced from flow over a backward-facing step at high Reynolds numbers.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)の出現により、データベースのサロゲートモデリングは、メッシュベースのデータ表現を直接操作する能力が高まっている。
この研究の目標は、gnnの解釈可能な微調整戦略の導入と、非構造化メッシュベースの流体動力学モデリングへの応用である。
最終結果は、予測タスクに固有の物理空間内の領域を分離し、ベースラインの予測能力を維持しながら、適応的なサブグラフサンプリング戦略により、事前訓練されたベースラインGNNに解釈性を追加する微調整GNNである。
入力の明示的な関数としてフォワードパスで適応的に生成される微調整GNNによって識別される構造は、ベースラインモデルアーキテクチャ、最適化目標、既知の問題固有物理との間のアクセス可能なリンクとして機能する。
さらに、正規化手順を通じて、微調整されたGNNを使用して、予測される予測エラーの大多数に対応するグラフノードを推論時に識別し、ベースラインモデルに新たな解釈可能なエラータグ機能を追加することもできる。
高レイノルズ数での逆向きステップ上の流れから導出される非構造フローデータを用いてデモを行う。
関連論文リスト
- A Generative Self-Supervised Framework using Functional Connectivity in
fMRI Data [15.211387244155725]
機能的磁気共鳴イメージング(fMRI)データから抽出した機能的接続性(FC)ネットワークを訓練したディープニューラルネットワークが人気を博している。
グラフニューラルネットワーク(GNN)のFCへの適用に関する最近の研究は、FCの時間変化特性を活用することにより、モデル予測の精度と解釈可能性を大幅に向上させることができることを示唆している。
高品質なfMRIデータとそれに対応するラベルを取得するための高コストは、実環境において彼らのアプリケーションにハードルをもたらす。
本研究では,動的FC内の時間情報を効果的に活用するためのSSL生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T16:14:43Z) - MuseGNN: Interpretable and Convergent Graph Neural Network Layers at
Scale [15.93424606182961]
本稿では, ある設定における収束保証によって導かれる, サンプリングベースエネルギー関数と拡張性のあるGNN層を反復的に削減する手法を提案する。
また、これらの設計に基づいて完全なGNNアーキテクチャをインスタンス化し、1TBを超える最大公用ノード分類ベンチマークに適用した場合の競合精度とスケーラビリティを実現する。
論文 参考訳(メタデータ) (2023-10-19T04:30:14Z) - Re-Think and Re-Design Graph Neural Networks in Spaces of Continuous
Graph Diffusion Functionals [7.6435511285856865]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークや生体システムのようなドメインで広く使われている。
GNNのローカリティ仮定は、グラフ内の長距離依存関係とグローバルパターンをキャプチャする能力を損なう。
本稿では,ブラヒクロニスト問題から着想を得た変分解析に基づく新しい帰納バイアスを提案する。
論文 参考訳(メタデータ) (2023-07-01T04:44:43Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Deep Graph Neural Networks via Flexible Subgraph Aggregation [50.034313206471694]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、近隣情報を集約することでノードの表現を学ぶ。
本稿では,サブグラフアグリゲーションの観点から,GNNの表現力を評価する。
サブグラフアグリゲーションの異なるホップをより柔軟に活用できるサンプリングベースノードレベル残余モジュール(SNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Continuous-Depth Neural Models for Dynamic Graph Prediction [16.89981677708299]
連続深度グラフニューラルネットワーク(GNN)の枠組みを紹介する。
ニューラルグラフ微分方程式(ニューラルグラフ微分方程式)は、GNNに対抗して形式化される。
その結果、遺伝的制御ネットワークにおけるトラフィック予測や予測など、アプリケーション全体にわたって提案されたモデルの有効性が証明された。
論文 参考訳(メタデータ) (2021-06-22T07:30:35Z) - The World as a Graph: Improving El Ni\~no Forecasts with Graph Neural
Networks [0.00916150060695978]
季節予測へのグラフニューラルネットワークの最初の応用を提案する。
当社のモデルであるGraphinoは、最先端のディープラーニングベースのモデルで最大6ヶ月の予測を上回ります。
論文 参考訳(メタデータ) (2021-04-11T19:55:55Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。