論文の概要: Shedding Light on Problems with Hyperbolic Graph Learning
- arxiv url: http://arxiv.org/abs/2411.06688v1
- Date: Mon, 11 Nov 2024 03:12:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:12:03.814845
- Title: Shedding Light on Problems with Hyperbolic Graph Learning
- Title(参考訳): ハイパーボリックグラフ学習における問題に対するシーディングライト
- Authors: Isay Katsman, Anna Gilbert,
- Abstract要約: グラフ機械学習文学における近年の論文は、双曲表現学習に多くのアプローチを導入している。
現在、双曲グラフ表現学習の分野を注意深く見ていく。
多くの論文では,アルゴリズム構築時にベースラインの厳密な提示に失敗し,ミスリード指標を用いてグラフデータセットの幾何を定量化している。
- 参考スコア(独自算出の注目度): 2.3743504594834635
- License:
- Abstract: Recent papers in the graph machine learning literature have introduced a number of approaches for hyperbolic representation learning. The asserted benefits are improved performance on a variety of graph tasks, node classification and link prediction included. Claims have also been made about the geometric suitability of particular hierarchical graph datasets to representation in hyperbolic space. Despite these claims, our work makes a surprising discovery: when simple Euclidean models with comparable numbers of parameters are properly trained in the same environment, in most cases, they perform as well, if not better, than all introduced hyperbolic graph representation learning models, even on graph datasets previously claimed to be the most hyperbolic as measured by Gromov $\delta$-hyperbolicity (i.e., perfect trees). This observation gives rise to a simple question: how can this be? We answer this question by taking a careful look at the field of hyperbolic graph representation learning as it stands today, and find that a number of papers fail to diligently present baselines, make faulty modelling assumptions when constructing algorithms, and use misleading metrics to quantify geometry of graph datasets. We take a closer look at each of these three problems, elucidate the issues, perform an analysis of methods, and introduce a parametric family of benchmark datasets to ascertain the applicability of (hyperbolic) graph neural networks.
- Abstract(参考訳): グラフ機械学習文学における近年の論文は、双曲表現学習に多くのアプローチを導入している。
主張された利点は、さまざまなグラフタスク、ノード分類、リンク予測のパフォーマンスを改善することである。
また、双曲空間における表現に対する特定の階層グラフデータセットの幾何学的適合性についても主張されている。
これらの主張にも拘わらず、我々の研究は驚くべき発見である: パラメータの数に匹敵する単純なユークリッドモデルが同じ環境で適切に訓練されている場合、ほとんどの場合、それはすべての導入された双曲グラフ表現学習モデルよりも良くないとしても、Gromov $\delta$-hyperbolicity (即ち完全木)によって測定された最も双曲的なグラフデータセットでさえも同様に機能する。
この観察は単純な疑問を生じさせます。
本稿では,今日のハイパーボリックグラフ表現学習の分野を注意深く検討し,多くの論文がベースラインを忠実に提示できず,アルゴリズム構築時に誤ったモデリング仮定を下し,グラフデータセットの幾何を定量化するために誤解を招く指標を用いることで,この問題に対処する。
これらの3つの問題を詳しく調べ、問題を解明し、メソッドの分析を行い、(双曲型)グラフニューラルネットワークの適用性を確認するために、ベンチマークデータセットのパラメトリックファミリを導入する。
関連論文リスト
- Parametric Graph Representations in the Era of Foundation Models: A Survey and Position [69.48708136448694]
グラフは、包括的なリレーショナルデータをモデル化するために、過去数十年間、ビッグデータとAIで広く使われてきた。
有意義なグラフ法則の同定は、様々な応用の有効性を著しく向上させることができる。
論文 参考訳(メタデータ) (2024-10-16T00:01:31Z) - Weighted Embeddings for Low-Dimensional Graph Representation [0.13499500088995461]
グラフを重み付き空間に埋め込むことを提案し、これは双曲幾何学と密接に関連しているが数学的には単純である。
重み付き埋め込みは、より少ない次元を使いながら、異質グラフに対する最先端のユークリッド埋め込みを著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-10-08T13:41:03Z) - Graph data augmentation with Gromow-Wasserstein Barycenters [0.0]
非ユークリッド空間で動作するグラフに対する新たな拡張戦略が提案されている。
非ユークリッド距離、特にグロモウ=ワッサーシュタイン距離は、グラフンのより良い近似をもたらす。
このフレームワークはまた、異なるグラフオン推定アプローチを検証する手段を提供する。
論文 参考訳(メタデータ) (2024-04-12T10:22:55Z) - Neural Scaling Laws on Graphs [54.435688297561015]
モデルおよびデータの観点から,グラフ上のニューラルスケーリング法則について検討する。
モデルスケーリングでは,スケール法が崩壊する現象を調査し,オーバーフィッティングを潜在的な理由として同定する。
データスケーリングについては、グラフのサイズが極めて不規則であるため、スケーリング法則においてグラフデータのボリュームを効果的に測定することはできないことを示唆する。
論文 参考訳(メタデータ) (2024-02-03T06:17:21Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Tight and fast generalization error bound of graph embedding in metric
space [54.279425319381374]
非ユークリッド計量空間へのグラフ埋め込みは、既存の有界よりもはるかに少ない訓練データを持つユークリッド空間におけるグラフ埋め込みよりも優れていることを示す。
我々の新しい上限は、既存の上限よりもかなり強く速く、最大で$R$と$O(frac1S)$に指数関数できる。
論文 参考訳(メタデータ) (2023-05-13T17:29:18Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z) - Synthetic Graph Generation to Benchmark Graph Learning [7.914804101579097]
グラフ学習アルゴリズムは多くのグラフ解析タスクで最先端のパフォーマンスを達成した。
1つの理由は、グラフ学習アルゴリズムのパフォーマンスをベンチマークするために実際に使用されるデータセットが極めて少ないためである。
本稿では,合成グラフの生成と,制御シナリオにおけるグラフ学習アルゴリズムの挙動について検討する。
論文 参考訳(メタデータ) (2022-04-04T10:48:32Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - Are Hyperbolic Representations in Graphs Created Equal? [1.80476943513092]
我々は、非ユークリッド埋め込みがグラフ学習タスクに常に有用であるかどうか検討する。
まず、ゼロ曲率で最適化プロセスに関連する既存のモデルの問題を解く。
いくつかのグラフ表現学習タスクにおいて,グラフを多様体に埋め込む手法を評価する。
論文 参考訳(メタデータ) (2020-07-15T14:14:14Z) - Non-Parametric Graph Learning for Bayesian Graph Neural Networks [35.88239188555398]
グラフ隣接行列の後方分布を構築するための新しい非パラメトリックグラフモデルを提案する。
このモデルの利点を,ノード分類,リンク予測,レコメンデーションという3つの異なる問題設定で示す。
論文 参考訳(メタデータ) (2020-06-23T21:10:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。