論文の概要: Finite-Agent Stochastic Differential Games on Large Graphs: II. Graph-Based Architectures
- arxiv url: http://arxiv.org/abs/2509.12484v1
- Date: Mon, 15 Sep 2025 22:11:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.78368
- Title: Finite-Agent Stochastic Differential Games on Large Graphs: II. Graph-Based Architectures
- Title(参考訳): 大規模グラフ上の有限エージェント確率微分ゲーム:II. グラフに基づくアーキテクチャ
- Authors: Ruimeng Hu, Jihao Long, Haosheng Zhou,
- Abstract要約: グラフ上の差分ゲームにおけるナッシュ平衡を計算するために,Non-Trainable Modification (NTM) と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
NTMは、フィードフォワードニューラルネットワークにグラフ誘導スペーシングを課し、基礎となるグラフトポロジに沿う固定された非トレーニング可能なコンポーネントを埋め込む。
- 参考スコア(独自算出の注目度): 2.58713822033329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel neural network architecture, called Non-Trainable Modification (NTM), for computing Nash equilibria in stochastic differential games (SDGs) on graphs. These games model a broad class of graph-structured multi-agent systems arising in finance, robotics, energy, and social dynamics, where agents interact locally under uncertainty. The NTM architecture imposes a graph-guided sparsification on feedforward neural networks, embedding fixed, non-trainable components aligned with the underlying graph topology. This design enhances interpretability and stability, while significantly reducing the number of trainable parameters in large-scale, sparse settings. We theoretically establish a universal approximation property for NTM in static games on graphs and numerically validate its expressivity and robustness through supervised learning tasks. Building on this foundation, we incorporate NTM into two state-of-the-art game solvers, Direct Parameterization and Deep BSDE, yielding their sparse variants (NTM-DP and NTM-DBSDE). Numerical experiments on three SDGs across various graph structures demonstrate that NTM-based methods achieve performance comparable to their fully trainable counterparts, while offering improved computational efficiency.
- Abstract(参考訳): グラフ上の確率微分ゲーム(SDG)におけるナッシュ平衡を計算するために,Non-Trainable Modification (NTM)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
これらのゲームは、ファイナンス、ロボティクス、エネルギー、社会力学で生じるグラフ構造化マルチエージェントシステムの幅広いクラスをモデル化し、エージェントは不確実性の下で局所的に相互作用する。
NTMアーキテクチャは、フィードフォワードニューラルネットワークにグラフ誘導スペーシングを課し、基礎となるグラフトポロジに沿う固定された非トレーニング可能なコンポーネントを埋め込む。
この設計により、解釈性と安定性が向上し、大規模でスパースな設定でトレーニング可能なパラメータの数が大幅に減少する。
グラフ上の静的ゲームにおけるNTMの普遍近似特性を理論的に確立し、教師付き学習タスクを通してその表現性とロバスト性を数値的に検証する。
この基盤の上に、NTMを2つの最先端ゲームソルバ、Direct ParameterizationとDeep BSDEに組み込み、そのスパース変種(NTM-DPとNTM-DBSDE)を生成する。
様々なグラフ構造にまたがる3つのSDGの数値実験により、NTMベースの手法は、計算効率を向上しつつ、完全に訓練可能な手法に匹敵する性能を達成することを示した。
関連論文リスト
- Parameter-Free Structural-Diversity Message Passing for Graph Neural Networks [8.462209415744098]
グラフニューラルネットワーク(GNN)はノード分類などの構造化データモデリングタスクにおいて顕著な性能を示した。
本稿では,構造的多様性に基づくパラメータフリーグラフニューラルネットワークフレームワークを提案する。
このフレームワークは構造多様性理論にインスパイアされ、統一された構造多様性メッセージパッシング機構を設計する。
論文 参考訳(メタデータ) (2025-08-27T13:42:45Z) - A Neuro-Symbolic Approach for Probabilistic Reasoning on Graph Data [12.45190689569629]
グラフネットワーク(GNN)は、しばしば記号的なドメイン知識を取り入れ、一般的な推論を行う能力に欠ける。
本稿では,GNNの学習強度とRBNの柔軟な推論能力を組み合わせることで,GNNをRBNにシームレスに統合するニューロシンボリックフレームワークを提案する。
この研究は、グラフデータに対する強力でコヒーレントなニューラルシンボリックなアプローチを導入し、新しいアプリケーションを可能にする方法で学習と推論を導入し、多様なタスクにおけるパフォーマンスを改善します。
論文 参考訳(メタデータ) (2025-07-29T14:43:25Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - Quantifying the Optimization and Generalization Advantages of Graph Neural Networks Over Multilayer Perceptrons [50.33260238739837]
グラフネットワーク(GNN)は、グラフ構造化データから学習する際、顕著な能力を示した。
最適化と一般化の観点から、GNNと一般化を比較した分析の欠如がまだ残っている。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Space-Time Graph Neural Networks with Stochastic Graph Perturbations [100.31591011966603]
時空間グラフニューラルネットワーク(ST-GNN)は、時間変動データの効率的なグラフ表現を学習する。
本稿では,ST-GNNの特性を再検討し,安定なグラフ安定性を示す。
解析の結果,ST-GNNは時間変化グラフ上での移動学習に適していることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:59:51Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Exploiting Spiking Dynamics with Spatial-temporal Feature Normalization
in Graph Learning [9.88508686848173]
内在的なダイナミクスを持つ生物学的スパイキングニューロンは、脳の強力な表現力と学習能力を持つ。
ユークリッド空間タスクを処理するためのスパイクニューラルネットワーク(SNN)の最近の進歩にもかかわらず、非ユークリッド空間データの処理においてSNNを活用することは依然として困難である。
本稿では,グラフ学習のためのSNNの直接学習を可能にする,一般的なスパイクに基づくモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:20:16Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。