論文の概要: Diffusion-Jump GNNs: Homophiliation via Learnable Metric Filters
- arxiv url: http://arxiv.org/abs/2306.16976v1
- Date: Thu, 29 Jun 2023 14:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 13:09:18.197317
- Title: Diffusion-Jump GNNs: Homophiliation via Learnable Metric Filters
- Title(参考訳): diffusion-jump gnn: 学習可能なメトリックフィルタによるホモフィリエーション
- Authors: Ahmed Begga, Francisco Escolano, Miguel Angel Lozano, Edwin R. Hancock
- Abstract要約: 高次グラフニューラルネットワーク(HO-GNN)は、ヘテロ親水系において一貫した潜伏空間を推論するために開発された。
ホモフィル化(英: Homophiliation)、すなわち、ヘテロフィル的状態における断片的に滑らかな潜在空間を学習する過程は、ディリクレ問題として定式化される。
- 参考スコア(独自算出の注目度): 10.357474047610172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-order Graph Neural Networks (HO-GNNs) have been developed to infer
consistent latent spaces in the heterophilic regime, where the label
distribution is not correlated with the graph structure. However, most of the
existing HO-GNNs are hop-based, i.e., they rely on the powers of the transition
matrix. As a result, these architectures are not fully reactive to the
classification loss and the achieved structural filters have static supports.
In other words, neither the filters' supports nor their coefficients can be
learned with these networks. They are confined, instead, to learn combinations
of filters. To address the above concerns, we propose Diffusion-jump GNNs a
method relying on asymptotic diffusion distances that operates on jumps. A
diffusion-pump generates pairwise distances whose projections determine both
the support and coefficients of each structural filter. These filters are
called jumps because they explore a wide range of scales in order to find bonds
between scattered nodes with the same label. Actually, the full process is
controlled by the classification loss. Both the jumps and the diffusion
distances react to classification errors (i.e. they are learnable).
Homophiliation, i.e., the process of learning piecewise smooth latent spaces in
the heterophilic regime, is formulated as a Dirichlet problem: the known labels
determine the border nodes and the diffusion-pump ensures a minimal deviation
of the semi-supervised grouping from a canonical unsupervised grouping. This
triggers the update of both the diffusion distances and, consequently, the
jumps in order to minimize the classification error. The Dirichlet formulation
has several advantages. It leads to the definition of structural heterophily, a
novel measure beyond edge heterophily. It also allows us to investigate links
with (learnable) diffusion distances, absorbing random walks and stochastic
diffusion.
- Abstract(参考訳): 高次グラフニューラルネットワーク (HO-GNN) は, ラベル分布がグラフ構造と相関しない不均一な潜伏空間を推定するために開発された。
しかし、既存のHO-GNNのほとんどはホップベース、すなわち遷移行列のパワーに依存している。
その結果、これらのアーキテクチャは分類損失に対して完全には反応せず、得られた構造フィルタは静的にサポートされている。
言い換えれば、フィルタのサポートも係数もこれらのネットワークでは学習できない。
その代わりに、フィルターの組み合わせを学ぶために制限される。
上記の問題に対処するために, ジャンプに作用する漸近拡散距離に依存する拡散ジャンプgnnを提案する。
拡散ポンプは、各構造フィルタの支持と係数の両方を決定する対向距離を生成する。
これらのフィルタは、同じラベルを持つ散乱ノード間の結合を見つけるために幅広いスケールを探索するため、ジャンプと呼ばれる。
実際、完全なプロセスは分類損失によって制御される。
ジャンプと拡散距離の両方が分類誤差に反応する(つまり、それらは学習可能である)。
ホモフィル化(英: Homophiliation)、すなわち、ヘテロフィル的状態における断片的に滑らかな潜在空間を学習する過程は、ディリクレ問題として定式化される: 既知のラベルは境界ノードを決定し、拡散パンプは、半教師なし群と正準教師なし群との最小偏差を保証する。
これにより、拡散距離の両方が更新され、その結果、分類誤差を最小限に抑えるためにジャンプされる。
ディリクレの定式化にはいくつかの利点がある。
これは、エッジヘテロフィリーを超えた新しい尺度である構造ヘテロフィリーの定義につながる。
また、(学習可能な)拡散距離とのリンクを調査し、ランダムウォークと確率拡散を吸収する。
関連論文リスト
- The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - What can we learn from diffusion about Anderson localization of a
degenerate Fermi gas? [0.0]
我々は、光スペックルパターンによって形成される障害電位において、縮退したスピン偏極フェルミガスを実験的に研究した。
臨界障害強度以上の局所化への移行のサインを示すものもあれば、改良された拡散状態へのスムーズな交差を示すものもある。
本研究は, 系の拡散を詳細に解析することにより, 局所化への遷移を研究できることを強調した。
論文 参考訳(メタデータ) (2023-11-13T17:46:08Z) - Anisotropic Diffusion Stencils: From Simple Derivations over Stability Estimates to ResNet Implementations [6.923007095578702]
3 x 3 個のステンシル上の有限差分判別の大きい族を研究する。
2次元異方性拡散を4つの1次元拡散に分割することによって導出する。
我々はステンシルに対応する行列のスペクトルノルムに有界性を確立する。
論文 参考訳(メタデータ) (2023-09-11T16:03:00Z) - Decomposed Diffusion Sampler for Accelerating Large-Scale Inverse
Problems [64.29491112653905]
本稿では, 拡散サンプリング法とクリロフ部分空間法を相乗的に組み合わせた, 新規で効率的な拡散サンプリング手法を提案する。
具体的には、ツイーディの公式による分母化標本における接空間がクリロフ部分空間を成すならば、その分母化データによるCGは、接空間におけるデータの整合性更新を確実に維持する。
提案手法は,従来の最先端手法よりも80倍以上高速な推論時間を実現する。
論文 参考訳(メタデータ) (2023-03-10T07:42:49Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z) - Time-inhomogeneous diffusion geometry and topology [69.55228523791897]
拡散凝縮(英: Diffusion condensation)は、各ステップが最初に計算し、そのデータに拡散演算子を適用する時間不均質な過程である。
我々はこの過程の収束と進化を幾何学的、スペクトル的、位相的観点から理論的に分析する。
我々の研究は拡散凝縮の収束に関する理論的洞察を与え、トポロジカルデータ解析と幾何学的データ解析のリンクを提供することを示している。
論文 参考訳(メタデータ) (2022-03-28T16:06:17Z) - Neural Sheaf Diffusion: A Topological Perspective on Heterophily and
Oversmoothing in GNNs [16.88394293874848]
セルラーシーフ理論を用いて、グラフの基盤となる幾何学がGNNの性能と深く関連していることを示す。
一般化されたシーブの階層構造を考慮し、無限時間極限におけるクラスの線形分離を実現するための層拡散過程の能力がいかに拡大するかを考察する。
我々は, せん断が非自明な場合, 離散パラメトリック拡散過程はGNNよりもその挙動を制御できることを証明した。
論文 参考訳(メタデータ) (2022-02-09T17:25:02Z) - Efficient recurrent neural network methods for anomalously diffusing
single particle short and noisy trajectories [0.08594140167290096]
本稿では, 異常指数を推定し, 単一, 雑音, 短軌跡の背後にある異常拡散過程のタイプを同定できるデータ駆動方式を提案する。
畳み込みニューラルネットワークと繰り返しニューラルネットワークを組み合わせることで、最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-08-05T20:04:37Z) - Interpreting diffusion score matching using normalizing flow [22.667661526643265]
拡散スコアマッチング (DSM) は, 正規化フローで評価された元のスコアマッチング (Stein discrepancy) と等価であることを示す。
具体的には、DSM(またはDSD)が正規化フローによって定義される変換空間で評価された元のスコアマッチング(またはスタイン差分)と等価であることを示す。
論文 参考訳(メタデータ) (2021-07-21T13:27:32Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z) - Anisotropy-mediated reentrant localization [62.997667081978825]
2次元双極子系、$d=2$、一般化双極子-双極子相互作用$sim r-a$、トラップイオン系やリドバーグ原子系で実験的に制御されたパワー$a$を考える。
異方性双極子交換を引き起こす双極子の空間的に均質な傾き$$beta$は、ロケータ展開を超えた非自明な再帰的局在をもたらすことを示す。
論文 参考訳(メタデータ) (2020-01-31T19:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。