論文の概要: Cycle Invariant Positional Encoding for Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2311.14333v1
- Date: Fri, 24 Nov 2023 08:15:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 15:55:09.327305
- Title: Cycle Invariant Positional Encoding for Graph Representation Learning
- Title(参考訳): グラフ表現学習のための周期不変位置符号化
- Authors: Zuoyu Yan, Tengfei Ma, Liangcai Gao, Zhi Tang, Chao Chen, Yusu Wang
- Abstract要約: そこで我々はCycleNetと呼ばれる構造符号化モジュールを提案する。
すべてのサイクルの空間を効率的に符号化するために、入力グラフの1次元ホッジ・ラプラシアンの核を介して計算するサイクル基底(つまり、サイクル空間を生成する最小のサイクルの集合)から始める。
我々は、CycleNetモジュールによって強化されたネットワークが、既存のSOTAモデルと比較して、様々なベンチマークでより優れた性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 25.170572318478406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cycles are fundamental elements in graph-structured data and have
demonstrated their effectiveness in enhancing graph learning models. To encode
such information into a graph learning framework, prior works often extract a
summary quantity, ranging from the number of cycles to the more sophisticated
persistence diagram summaries. However, more detailed information, such as
which edges are encoded in a cycle, has not yet been used in graph neural
networks. In this paper, we make one step towards addressing this gap, and
propose a structure encoding module, called CycleNet, that encodes cycle
information via edge structure encoding in a permutation invariant manner. To
efficiently encode the space of all cycles, we start with a cycle basis (i.e.,
a minimal set of cycles generating the cycle space) which we compute via the
kernel of the 1-dimensional Hodge Laplacian of the input graph. To guarantee
the encoding is invariant w.r.t. the choice of cycle basis, we encode the cycle
information via the orthogonal projector of the cycle basis, which is inspired
by BasisNet proposed by Lim et al. We also develop a more efficient variant
which however requires that the input graph has a unique shortest cycle basis.
To demonstrate the effectiveness of the proposed module, we provide some
theoretical understandings of its expressive power. Moreover, we show via a
range of experiments that networks enhanced by our CycleNet module perform
better in various benchmarks compared to several existing SOTA models.
- Abstract(参考訳): サイクルはグラフ構造化データの基本要素であり、グラフ学習モデルの拡張効果を実証している。
このような情報をグラフ学習フレームワークにエンコードするために、先行研究はサイクルの数からより洗練された永続化図の要約まで、しばしば要約量を抽出する。
しかし、エッジが周期的にエンコードされているようなより詳細な情報は、グラフニューラルネットワークではまだ使われていない。
本稿では,このギャップに対処するための一歩を踏み出し,エッジ構造エンコーディングによるサイクル情報を置換不変な方法でエンコードするcyclenetと呼ばれる構造エンコーディングモジュールを提案する。
すべてのサイクルの空間を効率的に符号化するために、入力グラフの1次元ホッジ・ラプラシアンの核を介して計算するサイクル基底(つまり、サイクル空間を生成する最小のサイクルの集合)から始める。
エンコードが不変であることを保証するため、サイクル基底の選択は、limらによって提案された基底ネットに触発されたサイクル基底の直交プロジェクタを介してサイクル情報を符号化する。
また、入力グラフが一意な最短サイクル基底を持つことを要求するより効率的な変種も開発する。
提案モジュールの有効性を示すために,その表現力に関する理論的理解を提供する。
さらに,CycleNetモジュールによって拡張されたネットワークは,既存のSOTAモデルと比較して,様々なベンチマークで性能が向上することを示す。
関連論文リスト
- Online Learning Of Expanding Graphs [14.952056744888916]
本稿では,信号ストリームからグラフを拡張するためのオンラインネットワーク推論の問題に対処する。
ネットワークに加入したばかりのノードや,それまでのノードに対して,さまざまなタイプの更新を可能にする戦略を導入する。
論文 参考訳(メタデータ) (2024-09-13T09:20:42Z) - Learning Physical Simulation with Message Passing Transformer [5.431396242057807]
本稿では,メッセージ・パッシング・フレームワークを組み込んだグラフニューラルネットワーク,メッセージ・パッシング・トランスフォーマに基づく新しいユニバーサル・アーキテクチャを提案する。
このアーキテクチャは,ラグランジアンおよびユーレリア力学系における長期ロールアウトにおいて,大幅な精度向上を実現している。
論文 参考訳(メタデータ) (2024-06-10T07:14:56Z) - Topological Cycle Graph Attention Network for Brain Functional Connectivity [1.7751300245073598]
我々は新しいトポロジカルサイクルグラフ注意ネットワーク(CycGAT)を導入する。
CycGATは、シグナル伝達に必須の脳機能グラフ内の機能的バックボーンを規定する。
シミュレーションによるCycGATの局在化とそのABCD研究のfMRIデータ上での有効性を実証する。
論文 参考訳(メタデータ) (2024-03-28T05:07:41Z) - Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Neural Topological Ordering for Computation Graphs [23.225391263047364]
エンコーダ-デコーダフレームワークを用いたトポロジ的順序付けのためのエンドツーエンドの機械学習に基づくアプローチを提案する。
このモデルでは,最大2kノードの合成グラフにおいて,いくつかのトポロジ的順序付けベースラインで,より高速に動作可能であることを示す。
論文 参考訳(メタデータ) (2022-07-13T00:12:02Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。