論文の概要: Lyapunov Stable Graph Neural Flow
- arxiv url: http://arxiv.org/abs/2603.12557v1
- Date: Fri, 13 Mar 2026 01:40:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.836527
- Title: Lyapunov Stable Graph Neural Flow
- Title(参考訳): リアプノフ安定グラフニューラルフロー
- Authors: Haoyu Chu, Xiaotong Chen, Wei Zhou, Wenjun Cui, Kai Zhao, Shikui Wei, Qiyu Kang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、トポロジと特徴の両方において、敵の摂動に対して非常に脆弱である。
整数および分数次リアプノフ安定性を基礎とした新しい防衛枠組みを導入する。
提案手法は,GNNの基本的な特徴更新ダイナミクスを制約し,理論的に証明可能な安定性保証を提供する。
- 参考スコア(独自算出の注目度): 29.626256068383437
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) are highly vulnerable to adversarial perturbations in both topology and features, making the learning of robust representations a critical challenge. In this work, we bridge GNNs with control theory to introduce a novel defense framework grounded in integer- and fractional-order Lyapunov stability. Unlike conventional strategies that rely on resource-heavy adversarial training or data purification, our approach fundamentally constrains the underlying feature-update dynamics of the GNN. We propose an adaptive, learnable Lyapunov function paired with a novel projection mechanism that maps the network's state into a stable space, thereby offering theoretically provable stability guarantees. Notably, this mechanism is orthogonal to existing defenses, allowing for seamless integration with techniques like adversarial training to achieve cumulative robustness. Extensive experiments demonstrate that our Lyapunov-stable graph neural flows substantially outperform base neural flows and state-of-the-art baselines across standard benchmarks and various adversarial attack scenarios.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、トポロジと特徴の両方において敵の摂動に対して非常に脆弱であり、ロバスト表現の学習は重要な課題である。
本研究では、GNNを制御理論でブリッジし、整数および分数次リアプノフ安定性に基づく新しい防御フレームワークを導入する。
資源量の多い敵の訓練やデータ浄化に依存する従来の戦略とは異なり、本手法はGNNの基盤となる機能更新のダイナミクスを根本的に制限する。
適応的で学習可能なリアプノフ関数と,ネットワークの状態を安定な空間にマッピングし,理論的に証明可能な安定性を保証する新しいプロジェクション機構を組み合わせて提案する。
特に、このメカニズムは既存の防御と直交しており、敵の訓練のような技術とシームレスに統合することで累積的堅牢性を達成することができる。
我々のLyapunov安定グラフニューラルフローは、標準的なベンチマークと様々な敵攻撃シナリオでベースニューラルフローと最先端のベースラインを大幅に上回ることを示した。
関連論文リスト
- If You Want to Be Robust, Be Wary of Initialization [28.195617869726636]
グラフニューラルネットワーク(GNN)は、グラフ関連タスクのスペクトルにわたって顕著なパフォーマンスを示している。
しかし、敵の摂動に対する脆弱性については懸念が続いている。
本稿では,初期化戦略と敵の摂動に対するネットワークのレジリエンスの関連性を橋渡しする理論的枠組みを提案する。
分析の結果,初期重み,トレーニングエポック数,モデルの脆弱性の直接的な関係が明らかになった。
論文 参考訳(メタデータ) (2025-10-26T12:28:12Z) - Certified Neural Approximations of Nonlinear Dynamics [51.01318247729693]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Hierarchical Uncertainty-Aware Graph Neural Network [3.4498722449655066]
この研究は、階層的不確実性認識グラフニューラルネットワーク(HU-GNN)という新しいアーキテクチャを導入している。
マルチスケールな表現学習、原則的不確実性推定、および単一エンドツーエンドフレームワークにおける自己監督型埋め込み多様性を統一する。
具体的には、HU-GNNはノードクラスタを適応的に形成し、個々のノードからより高いレベルまでの複数の構造スケールで不確実性を推定する。
論文 参考訳(メタデータ) (2025-04-28T14:22:18Z) - Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Adversarial Robustness in Graph Neural Networks: A Hamiltonian Approach [27.99849885813841]
グラフニューラルネットワーク(GNN)は敵の摂動に弱い。
本稿では,多様なニューラルフローから派生したGNNについて検討する。
我々は、リアプノフの安定性は、その一般的な使用にもかかわらず、必ずしも敵の堅牢性を保証するとは限らないと論じる。
論文 参考訳(メタデータ) (2023-10-10T07:59:23Z) - What Can the Neural Tangent Kernel Tell Us About Adversarial Robustness? [0.0]
ニューラルネットワークとカーネルメソッドを接続する最近の理論の進歩によって得られた分析ツールを用いて、トレーニングされたニューラルネットワークの逆例について研究する。
NTKがいかにして、トレーニングフリーのやり方で敵の例を生成できるかを示し、遅延のやり方で、有限幅のニューラルネットを騙すために移行することを実証する。
論文 参考訳(メタデータ) (2022-10-11T16:11:48Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Stable Neural ODE with Lyapunov-Stable Equilibrium Points for Defending
Against Adversarial Attacks [32.88499015927756]
我々は,Lyapunov-stable平衡点を持つ安定なニューラル・オードを提案し,敵対的攻撃(SODEF)を防御する。
我々は、SODEFの安定性に関する洞察を与える理論的な結果と、その安定性を確保するための正則化器の選択を提供する。
論文 参考訳(メタデータ) (2021-10-25T14:09:45Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。