論文の概要: From Latent Graph to Latent Topology Inference: Differentiable Cell
Complex Module
- arxiv url: http://arxiv.org/abs/2305.16174v2
- Date: Thu, 3 Aug 2023 13:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 16:47:27.044458
- Title: From Latent Graph to Latent Topology Inference: Differentiable Cell
Complex Module
- Title(参考訳): 潜時グラフから潜時位相推定へ:微分可能な細胞複合体モジュール
- Authors: Claudio Battiloro, Indro Spinelli, Lev Telyatnikov, Michael Bronstein,
Simone Scardapane, Paolo Di Lorenzo
- Abstract要約: Differentiable Cell Complex Module (DCM) は、下流タスクを改善するために複合体内の細胞確率を計算する新しい学習可能な関数である。
DCMをセル複雑なメッセージパッシングネットワーク層と統合し、エンドツーエンドでトレーニングする方法を示す。
本モデルは, ホモ親和性およびヘテロ親和性のあるグラフデータセットを用いて実験を行い, その他の最先端技術よりも優れた性能を示すことを示す。
- 参考スコア(独自算出の注目度): 21.383018558790674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent Graph Inference (LGI) relaxed the reliance of Graph Neural Networks
(GNNs) on a given graph topology by dynamically learning it. However, most of
LGI methods assume to have a (noisy, incomplete, improvable, ...) input graph
to rewire and can solely learn regular graph topologies. In the wake of the
success of Topological Deep Learning (TDL), we study Latent Topology Inference
(LTI) for learning higher-order cell complexes (with sparse and not regular
topology) describing multi-way interactions between data points. To this aim,
we introduce the Differentiable Cell Complex Module (DCM), a novel learnable
function that computes cell probabilities in the complex to improve the
downstream task. We show how to integrate DCM with cell complex message passing
networks layers and train it in a end-to-end fashion, thanks to a two-step
inference procedure that avoids an exhaustive search across all possible cells
in the input, thus maintaining scalability. Our model is tested on several
homophilic and heterophilic graph datasets and it is shown to outperform other
state-of-the-art techniques, offering significant improvements especially in
cases where an input graph is not provided.
- Abstract(参考訳): 潜在グラフ推論(LGI)は、グラフトポロジへのグラフニューラルネットワーク(GNN)の依存を動的に学習することで緩和した。
しかし、ほとんどのlgi手法は(ノイズ、不完全、即興、...)入力グラフをリワイヤし、正規グラフトポロジのみを学習できると仮定している。
トポロジカル・ディープ・ラーニング(tdl)の成功を受けて、データポイント間のマルチウェイインタラクションを記述する高次セル複合体(正規トポロジーではなくスパース)を学習するための潜時トポロジー推論(lti)の研究を行った。
この目的のために, 下流課題を改善するために, コンプレックス内の細胞確率を計算する新しい学習可能機能である微分可能セル複合体モジュール(dcm)を導入する。
そこで本稿では,DCMとセル複雑なメッセージパッシングネットワーク層を統合してエンドツーエンドでトレーニングする方法を示す。
提案手法は,複数の同好・異好のグラフデータセットを用いて検証し,入力グラフが提供されない場合,特に顕著な改善が期待できる。
関連論文リスト
- Cell Graph Transformer for Nuclei Classification [78.47566396839628]
我々は,ノードとエッジを入力トークンとして扱うセルグラフ変換器(CGT)を開発した。
不愉快な特徴は、騒々しい自己注意スコアと劣等な収束につながる可能性がある。
グラフ畳み込みネットワーク(GCN)を利用して特徴抽出器を学習する新しいトポロジ対応事前学習法を提案する。
論文 参考訳(メタデータ) (2024-02-20T12:01:30Z) - Learning Cartesian Product Graphs with Laplacian Constraints [10.15283812819547]
ラプラシアン制約下でのカルト積グラフの学習問題について検討する。
我々は、ペナルティ化された最大推定値に対する統計的整合性を確立する。
また、構造的欠落のある値の存在下で、効率的な共同グラフ学習と計算を行う方法を拡張した。
論文 参考訳(メタデータ) (2024-02-12T22:48:30Z) - Tensor-view Topological Graph Neural Network [16.433092191206534]
グラフニューラルネットワーク(GNN)は最近、グラフ学習において注目を集めている。
既存のGNNは、各ノード周辺の非常に限られた地区からのローカル情報のみを使用する。
本稿では,単純かつ効果的な深層学習のクラスであるTopological Graph Neural Network (TTG-NN)を提案する。
実データ実験により,提案したTTG-NNは,グラフベンチマークにおいて20の最先端手法より優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:55:01Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Latent Graph Inference using Product Manifolds [0.0]
遅延グラフ学習のための離散微分可能グラフモジュール(dDGM)を一般化する。
我々の新しいアプローチは、幅広いデータセットでテストされ、元のdDGMモデルよりも優れています。
論文 参考訳(メタデータ) (2022-11-26T22:13:06Z) - GPNet: Simplifying Graph Neural Networks via Multi-channel Geometric
Polynomials [2.521781613847069]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおける現実の問題を回避するための有望なアプローチである。
これらのモデルは、通常、過度に滑らかな、過度に適合する、訓練しにくい、強いホモフィリー仮定の4つの基本的な制限のうちの少なくとも1つを持つ。
本稿では, (D1) 拡張畳み込み, (D2) マルチチャネル学習, (D3) 自己注意スコア, (D4) サインファクタなどのキーデザインの集合を同定し,異なるタイプの学習を促進する。
理論的にモデルを解析し、自己注意スコアを調整することにより、様々なグラフフィルタを近似できることを示す。
論文 参考訳(メタデータ) (2022-09-30T13:03:57Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。