論文の概要: Graph and Simplicial Complex Prediction Gaussian Process via the Hodgelet Representations
- arxiv url: http://arxiv.org/abs/2505.10877v1
- Date: Fri, 16 May 2025 05:33:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.171904
- Title: Graph and Simplicial Complex Prediction Gaussian Process via the Hodgelet Representations
- Title(参考訳): Hodgelet表現によるグラフおよび単純複素予測ガウス過程
- Authors: Mathieu Alain, So Takao, Xiaowen Dong, Bastian Rieck, Emmanuel Noutahi,
- Abstract要約: 我々はガウスのプロセスフレームワークを単純化コンプレックス(SC)に拡張し、より高階の単純化でサポートされているエッジレベルの属性と属性の処理を可能にする。
我々は,GPがグラフやSCレベルの予測に広く使われるように,様々なアプリケーションにわたる予測を強化することを実証した。
- 参考スコア(独自算出の注目度): 18.356495042963267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the labels of graph-structured data is crucial in scientific applications and is often achieved using graph neural networks (GNNs). However, when data is scarce, GNNs suffer from overfitting, leading to poor performance. Recently, Gaussian processes (GPs) with graph-level inputs have been proposed as an alternative. In this work, we extend the Gaussian process framework to simplicial complexes (SCs), enabling the handling of edge-level attributes and attributes supported on higher-order simplices. We further augment the resulting SC representations by considering their Hodge decompositions, allowing us to account for homological information, such as the number of holes, in the SC. We demonstrate that our framework enhances the predictions across various applications, paving the way for GPs to be more widely used for graph and SC-level predictions.
- Abstract(参考訳): グラフ構造化データのラベルを予測することは、科学的な応用において不可欠であり、グラフニューラルネットワーク(GNN)を使用してしばしば達成される。
しかし、データが不足している場合、GNNは過度な適合に悩まされ、パフォーマンスが低下する。
近年,グラフレベルの入力を持つガウス過程 (GP) が代替案として提案されている。
本研究では,Gussianプロセスフレームワークをsimplicial Complex(SC)に拡張し,高階のsimpliceでサポートされているエッジレベルの属性と属性の処理を可能にする。
さらに、Hodge分解を考慮し、SC内のホール数などのホモロジー情報を考慮し、結果のSC表現をさらに強化する。
我々は,GPがグラフやSCレベルの予測に広く使われるように,様々なアプリケーションにわたる予測を強化することを実証した。
関連論文リスト
- OMEGA: A Low-Latency GNN Serving System for Large Graphs [8.51634655687174]
グラフニューラルネットワーク(GNN)は、グラフデータセットにおける表現ノード表現の計算能力に広く採用されている。
既存のトレーニングにおける近似技術はオーバーヘッドを軽減することができるが、サービスでは高いレイテンシと/または精度の損失につながる。
本稿では,低遅延GNNを最小限の精度でグラフに役立てるシステムであるOMEGAを提案する。
論文 参考訳(メタデータ) (2025-01-15T03:14:18Z) - Efficient Graph Condensation via Gaussian Process [11.304327316816561]
グラフ凝縮は、性能を維持しながら大きなグラフのサイズを減らす。
既存の手法はしばしば二段階最適化に依存しており、広範囲なGNNトレーニングとスケーラビリティの制限を必要とする。
本稿では,ガウス過程を用いたグラフ凝縮法(GCGP)を提案する。
論文 参考訳(メタデータ) (2025-01-05T14:43:07Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Graph Neural Network-Inspired Kernels for Gaussian Processes in
Semi-Supervised Learning [4.644263115284322]
グラフニューラルネットワーク(GNN)は、半教師付き学習において、グラフ構造化データのモデルとして期待できるクラスとして最近登場した。
この帰納バイアスをGPに導入して,グラフ構造化データの予測性能を向上させる。
これらのグラフベースのカーネルは、各GNNと比較して、競合する分類と回帰性能、および時間の長所をもたらすことを示す。
論文 参考訳(メタデータ) (2023-02-12T01:07:56Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Self-Constructing Graph Convolutional Networks for Semantic Labeling [23.623276007011373]
本稿では,学習可能な潜伏変数を用いて埋め込みを生成する自己構築グラフ(SCG)を提案する。
SCGは、空中画像中の複雑な形状の物体から、最適化された非局所的なコンテキストグラフを自動的に取得することができる。
本稿では,ISPRS Vaihingen データセット上で提案した SCG の有効性と柔軟性を示す。
論文 参考訳(メタデータ) (2020-03-15T21:55:24Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。