論文の概要: Control the GNN: Utilizing Neural Controller with Lyapunov Stability for Test-Time Feature Reconstruction
- arxiv url: http://arxiv.org/abs/2410.09708v1
- Date: Sun, 13 Oct 2024 03:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 08:36:49.235420
- Title: Control the GNN: Utilizing Neural Controller with Lyapunov Stability for Test-Time Feature Reconstruction
- Title(参考訳): GNNの制御:テスト時間特徴再構成のためのリアプノフ安定性を用いたニューラルコントローラの利用
- Authors: Jielong Yang, Rui Ding, Feng Ji, Hongbin Wang, Linbo Xie,
- Abstract要約: グラフニューラルネットワーク(GNN)の性能は、トレーニングとサンプル分布のテストの相違の影響を受けやすい。
リアプノフ安定理論に基づく新しいノード特徴再構成法を提案する。
提案手法の有効性は,複数のデータセットにわたる広範な実験を通じて検証し,大幅な性能向上を示す。
- 参考スコア(独自算出の注目度): 15.066912209426542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of graph neural networks (GNNs) is susceptible to discrepancies between training and testing sample distributions. Prior studies have attempted to enhance GNN performance by reconstructing node features during the testing phase without modifying the model parameters. However, these approaches lack theoretical analysis of the proximity between predictions and ground truth at test time. In this paper, we propose a novel node feature reconstruction method grounded in Lyapunov stability theory. Specifically, we model the GNN as a control system during the testing phase, considering node features as control variables. A neural controller that adheres to the Lyapunov stability criterion is then employed to reconstruct these node features, ensuring that the predictions progressively approach the ground truth at test time. We validate the effectiveness of our approach through extensive experiments across multiple datasets, demonstrating significant performance improvements.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の性能は、トレーニングとサンプル分布のテストの相違の影響を受けやすい。
従来の研究では、モデルパラメータを変更することなく、テストフェーズ中にノードの特徴を再構築することで、GNNの性能向上を試みた。
しかし、これらのアプローチは、テスト時の予測と基底真理との近接に関する理論的解析を欠いている。
本稿では,リアプノフ安定理論に基づく新しいノード特徴再構成法を提案する。
具体的には、ノードの特徴を制御変数として考慮し、GNNをテストフェーズにおける制御系としてモデル化する。
Lyapunovの安定性基準に準拠したニューラルコントローラを使用してこれらのノードの特徴を再構築し、予測がテスト時に基底真実に徐々に近づくことを保証する。
提案手法の有効性は,複数のデータセットにわたる広範な実験を通じて検証し,大幅な性能向上を示す。
関連論文リスト
- Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - SimCalib: Graph Neural Network Calibration based on Similarity between
Nodes [60.92081159963772]
グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションで実証されたグラフデータのモデリングにおいて、優れたパフォーマンスを示している。
理論解析により,GNNキャリブレーションとノードワイド類似性の関係について考察した。
SimCalibと名付けられた新しい校正フレームワークは、グローバルレベルとローカルレベルにおけるノード間の類似性を検討するために提案されている。
論文 参考訳(メタデータ) (2023-12-19T04:58:37Z) - An LSTM-Based Predictive Monitoring Method for Data with Time-varying
Variability [3.5246670856011035]
本稿では、繰り返し発生するニューラルネットワーク構造がプロセスを監視する能力について考察する。
本研究では,長期短期記憶(LSTM)予測間隔に基づく時間変動データに対する制御チャートを提案する。
提案手法は時系列センサデータにも適用され,本手法が異常検出に有効な手法であることを確認した。
論文 参考訳(メタデータ) (2023-09-05T06:13:09Z) - FRGNN: Mitigating the Impact of Distribution Shift on Graph Neural
Networks via Test-Time Feature Reconstruction [13.21683198528012]
分散シフトはグラフニューラルネットワーク(GNN)のテスト性能に悪影響を及ぼす可能性がある
特徴再構成を行うための汎用フレームワークFR-GNNを提案する。
特に、再構成されたノード機能は、よく訓練されたモデルをテストするために直接利用することができる。
論文 参考訳(メタデータ) (2023-08-18T02:34:37Z) - A New PHO-rmula for Improved Performance of Semi-Structured Networks [0.0]
本研究では,SSNにおけるモデルコンポーネントのコントリビューションを適切に識別する手法が,最適ネットワーク推定に繋がることを示す。
モデルコンポーネントの識別性を保証し,予測品質を向上する非侵襲的ポストホック化(PHO)を提案する。
我々の理論的な知見は、数値実験、ベンチマーク比較、およびCOVID-19感染症に対する現実の応用によって裏付けられている。
論文 参考訳(メタデータ) (2023-06-01T10:23:28Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Neural network optimal feedback control with enhanced closed loop
stability [3.0981875303080795]
近年の研究では、教師あり学習は高次元非線形力学系のための最適フィードバックコントローラを設計するための有効なツールであることが示されている。
しかし、これらのニューラルネットワーク(NN)コントローラの挙動はまだよく理解されていない。
本稿では,NNコントローラがシステムの安定化に有効であることを示すために,数値シミュレーションを用いた。
論文 参考訳(メタデータ) (2021-09-15T17:59:20Z) - Stochastic Deep Model Reference Adaptive Control [9.594432031144715]
本稿では,ディープニューラルネットワークを用いたモデル参照適応制御を提案する。
Deep Model Reference Adaptive Controlは、DNNモデルの出力層重みをリアルタイムに適応させるために、リアプノフ法を用いる。
データ駆動型教師付き学習アルゴリズムは、内部層パラメータの更新に使用される。
論文 参考訳(メタデータ) (2021-08-04T14:05:09Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z) - Stochastic-Sign SGD for Federated Learning with Theoretical Guarantees [49.91477656517431]
量子化に基づく解法は、フェデレートラーニング(FL)において広く採用されている。
上記のプロパティをすべて享受する既存のメソッドはありません。
本稿では,SIGNSGDに基づく直感的かつ理論的に簡易な手法を提案し,そのギャップを埋める。
論文 参考訳(メタデータ) (2020-02-25T15:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。