論文の概要: GNN-based Unified Deep Learning
- arxiv url: http://arxiv.org/abs/2508.10583v1
- Date: Thu, 14 Aug 2025 12:22:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.305957
- Title: GNN-based Unified Deep Learning
- Title(参考訳): GNNに基づく統合ディープラーニング
- Authors: Furkan Pala, Islem Rekik,
- Abstract要約: グラフ表現に各モデルをエンコードし、共有グラフ学習空間における統一を可能にする新しいパラダイムである統一学習を提案する。
統一学習は、モデルが一意分布で訓練され、混合分布でテストされると性能が向上し、見当たらないデータ分散シフトに対して強い堅牢性を示すことを示す。
- 参考スコア(独自算出の注目度): 5.563171090433323
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning models often struggle to maintain generalizability in medical imaging, particularly under domain-fracture scenarios where distribution shifts arise from varying imaging techniques, acquisition protocols, patient populations, demographics, and equipment. In practice, each hospital may need to train distinct models - differing in learning task, width, and depth - to match local data. For example, one hospital may use Euclidean architectures such as MLPs and CNNs for tabular or grid-like image data, while another may require non-Euclidean architectures such as graph neural networks (GNNs) for irregular data like brain connectomes. How to train such heterogeneous models coherently across datasets, while enhancing each model's generalizability, remains an open problem. We propose unified learning, a new paradigm that encodes each model into a graph representation, enabling unification in a shared graph learning space. A GNN then guides optimization of these unified models. By decoupling parameters of individual models and controlling them through a unified GNN (uGNN), our method supports parameter sharing and knowledge transfer across varying architectures (MLPs, CNNs, GNNs) and distributions, improving generalizability. Evaluations on MorphoMNIST and two MedMNIST benchmarks - PneumoniaMNIST and BreastMNIST - show that unified learning boosts performance when models are trained on unique distributions and tested on mixed ones, demonstrating strong robustness to unseen data with large distribution shifts. Code and benchmarks: https://github.com/basiralab/uGNN
- Abstract(参考訳): 深層学習モデルは、医用画像における一般化性を維持するのに苦労することが多く、特に、様々な画像技術、取得プロトコル、患者集団、人口統計学、機器からの分布シフトが生じるドメイン・フラクチャーのシナリオにおいてである。
実際には、各病院は、ローカルデータに合わせて、学習タスク、幅、深さが異なる、異なるモデルを訓練する必要がある。
例えば、ある病院では、表や格子のような画像データにMLPやCNNのようなユークリッドのアーキテクチャを使うが、別の病院では、脳コネクトームのような不規則なデータにグラフニューラルネットワーク(GNN)のような非ユークリッドのアーキテクチャを必要とすることがある。
このような異種モデルをデータセット間でコヒーレントにトレーニングする方法は、各モデルの一般化性を高めながら、未解決の問題である。
グラフ表現に各モデルをエンコードし、共有グラフ学習空間における統一を可能にする新しいパラダイムである統一学習を提案する。
GNNは、これらの統一モデルの最適化をガイドする。
個々のモデルのパラメータを分離し、統一GNN(uGNN)を介して制御することにより、パラメータ共有と様々なアーキテクチャ(MLP、CNN、GNN)と分布間の知識伝達をサポートし、一般化性を向上させる。
MorphoMNISTと2つのMedMNISTベンチマーク(PneumoniaMNISTとBreastMNIST)の評価によると、統一学習は、モデルがユニークな分布でトレーニングされ、混合分布でテストされるとパフォーマンスが向上する。
コードとベンチマーク:https://github.com/basiralab/uGNN
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Label Deconvolution for Node Representation Learning on Large-scale Attributed Graphs against Learning Bias [72.33336385797944]
本稿では,学習バイアスを軽減するため,ラベルの効率的な正規化手法であるラベルデコンボリューション(LD)を提案する。
LDはOpen Graph Benchmarkデータセット上で最先端の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Federated Learning with Neural Graphical Models [2.2721854258621064]
フェデレートラーニング(FL)は、プロプライエタリなデータに基づいたモデルを作成する必要性に対処する。
我々は,局所的なNGMモデルから平均情報を学習するグローバルなNGMモデルを維持するFLフレームワークを開発した。
我々は、CDCの乳幼児死亡データからインサイトを抽出するためのFedNGMsの使用を実験的に実証した。
論文 参考訳(メタデータ) (2023-09-20T23:24:22Z) - Compact & Capable: Harnessing Graph Neural Networks and Edge Convolution
for Medical Image Classification [0.0]
本稿では,重要なグラフノード間の接続を強く表現するために,RGBチャネルの特徴値の相互接続性を活用し,GNNとエッジ畳み込みを組み合わせた新しいモデルを提案する。
提案モデルでは,最新のDeep Neural Networks (DNN) と同等に動作するが,1000倍のパラメータが減少し,トレーニング時間とデータ要求が短縮される。
論文 参考訳(メタデータ) (2023-07-24T13:39:21Z) - Multi network InfoMax: A pre-training method involving graph
convolutional networks [0.0]
本稿では,グラフ畳み込み/ニューラルネットワーク(GCN/GNN)を含む事前学習手法を提案する。
学習された高レベルグラフ潜在表現は、下流グラフ分類タスクのパフォーマンス向上に役立つ。
我々は、被験者を健康管理群(HC)と統合失調症群(SZ)に分類するための神経画像データセットに適用した。
論文 参考訳(メタデータ) (2021-11-01T21:53:20Z) - A Deep Latent Space Model for Graph Representation Learning [10.914558012458425]
本稿では,従来の潜時変動に基づく生成モデルをディープラーニングフレームワークに組み込むために,有向グラフのための深潜時空間モデル(DLSM)を提案する。
提案モデルは,階層的変動型オートエンコーダアーキテクチャによって階層的に接続されるグラフ畳み込みネットワーク(GCN)エンコーダとデコーダから構成される。
実世界のデータセットにおける実験により,提案モデルがリンク予測とコミュニティ検出の両タスクにおける最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-06-22T12:41:19Z) - Streaming Graph Neural Networks via Continual Learning [31.810308087441445]
グラフニューラルネットワーク(GNN)は様々なアプリケーションで高いパフォーマンスを実現している。
本稿では,連続学習に基づくストリーミングGNNモデルを提案する。
モデルパラメータを効率的に更新し、モデル再トレーニングに匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-23T06:52:30Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。