論文の概要: Training-Free Cross-Architecture Merging for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2602.19332v1
- Date: Sun, 22 Feb 2026 20:43:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.595452
- Title: Training-Free Cross-Architecture Merging for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための学習不要なクロスアーキテクチャマージ
- Authors: Rishabh Bhattacharya, Vikaskumar Kalsariya, Naresh Manwani,
- Abstract要約: H-GRAMA(Heterogeneous Graph Routing and Message Alignment)は,パラメータ空間から演算子空間へのマージを緩和するトレーニングフリーフレームワークである。
我々は、共通機能言語で異種GNN層を表現する共有演算子ファミリーであるUniversal Message Passing Mixture(UMPM)を形式化する。
- 参考スコア(独自算出の注目度): 1.9116784879310027
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Model merging has emerged as a powerful paradigm for combining the capabilities of distinct expert models without the high computational cost of retraining, yet current methods are fundamentally constrained to homogeneous architectures. For GNNs, however, message passing is topology-dependent and sensitive to misalignment, making direct parameter-space merging unreliable. To bridge this gap, we introduce H-GRAMA (Heterogeneous Graph Routing and Message Alignment), a training-free framework that lifts merging from parameter space to operator space. We formalize Universal Message Passing Mixture (UMPM), a shared operator family that expresses heterogeneous GNN layers in a common functional language. H-GRAMA enables cross-architecture GNN merging (e.g., GCN to GAT) without retraining, retaining high specialist accuracy in most cases in compatible depth settings and achieving inference speedups of 1.2x to 1.9x over ensembles.
- Abstract(参考訳): モデルマージは、高い計算コストを伴わずに異なる専門家モデルの能力を組み合わせるための強力なパラダイムとして現れてきたが、現在の手法は基本的に均質なアーキテクチャに制約されている。
しかし、GNNでは、メッセージパッシングはトポロジに依存しており、アライメントに敏感であるため、直接パラメータ空間のマージは信頼性が低い。
このギャップを埋めるために、パラメータ空間から演算子空間へのマージをリフトするトレーニング不要なフレームワークであるH-GRAMA(Heterogeneous Graph Routing and Message Alignment)を導入する。
我々は、共通機能言語で異種GNN層を表現する共有演算子ファミリーであるUniversal Message Passing Mixture(UMPM)を形式化する。
H-GRAMAは、再トレーニングなしにGNNのクロスアーキテクチャ(例えばGCNからGAT)のマージを可能にし、互換性のある深さ設定でほとんどのケースで高い精度を保ち、アンサンブル上で1.2倍から1.9倍の推論スピードアップを達成する。
関連論文リスト
- CoCo-Fed: A Unified Framework for Memory- and Communication-Efficient Federated Learning at the Wireless Edge [50.42067935605982]
ローカルメモリの効率とグローバル通信の削減を両立させる新しい圧縮・結合型学習フレームワークを提案する。
CoCo-Fedは、メモリと通信効率の両方において最先端のベースラインを著しく上回り、非IID設定下では堅牢な収束を維持している。
論文 参考訳(メタデータ) (2026-01-02T03:39:50Z) - Implicit Hypergraph Neural Networks: A Stable Framework for Higher-Order Relational Learning with Provable Guarantees [8.5183483099116]
Indicit Hypergraph Neural Networks (IHGNN)を導入し、非線形不動点方程式の解として表現を計算する。
IHGNNは、正確性と堅牢性の両方において、強力な従来のグラフ/ハイパーグラフニューラルネットワークベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-08-13T02:06:29Z) - Can we ease the Injectivity Bottleneck on Lorentzian Manifolds for Graph Neural Networks? [0.0]
Lorentzian Graph Isomorphic Network (LGIN)は、Lorentzianモデル内での識別性を高めるために設計された新しいHGNNである。
LGINは、強力で差別性の高いGNNアーキテクチャの原理をリーマン多様体に適応させた最初のものである。
論文 参考訳(メタデータ) (2025-03-31T18:49:34Z) - GMapLatent: Geometric Mapping in Latent Space [51.317738404571514]
エンコーダ-デコーダAIアーキテクチャに基づくドメイン間の生成モデルは、現実的な画像の生成に大きな注目を集めている。
幾何学的マッピングに基づく正準潜在空間表現を導入し、領域間潜在空間を厳密かつ正確に整列する。
グレースケールおよびカラー画像の実験は、GMapLatentの有効性、有効性および適用性を検証する。
論文 参考訳(メタデータ) (2025-03-30T12:02:36Z) - Automated Heterogeneous Network learning with Non-Recursive Message Passing [9.696905142991659]
異種情報ネットワーク(HIN)は、様々な現実世界のシステムをモデル化するために用いられる。
不均一なケースでグラフニューラルネットワーク(GNN)を直接適用するのは簡単ではない。
我々は,有効な異種情報を直接利用し,自動抽出する新しいフレームワーク,AutoGNRを開発した。
論文 参考訳(メタデータ) (2025-01-10T14:26:10Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Graph Neural Networks Gone Hogwild [14.665528337423249]
グラフニューラルネットワーク(GNN)は、分散分散分散マルチエージェントシステムにおけるエージェントの状態表現を学習する強力なツールであるように見える。
GNNは、推論中にノードが非同期に更新されると、破滅的に誤った予測を生成する。
我々は、GNNを、非同期な"hogwild"推論に対して確実に堅牢なアーキテクチャのクラスとして識別する。
我々は「エネルギーGNN」と呼ばれる暗黙的に定義されたGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-29T17:11:09Z) - DepGraph: Towards Any Structural Pruning [68.40343338847664]
我々は、CNN、RNN、GNN、Transformersのような任意のアーキテクチャの一般的な構造解析について研究する。
本稿では,階層間の依存関係を明示的にモデル化し,包括的にグループ化してプルーニングを行う汎用かつ完全自動な手法であるemphDependency Graph(DepGraph)を提案する。
本研究では,画像用ResNe(X)t,DenseNet,MobileNet,Vision Transformer,グラフ用GAT,3Dポイントクラウド用DGCNN,言語用LSTMなど,さまざまなアーキテクチャやタスクに関する手法を広範囲に評価し,言語用LSTMと並行して示す。
論文 参考訳(メタデータ) (2023-01-30T14:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。