論文の概要: RTD-Lite: Scalable Topological Analysis for Comparing Weighted Graphs in Learning Tasks
- arxiv url: http://arxiv.org/abs/2503.11910v1
- Date: Fri, 14 Mar 2025 22:42:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:33:03.752668
- Title: RTD-Lite: Scalable Topological Analysis for Comparing Weighted Graphs in Learning Tasks
- Title(参考訳): RTD-Lite:学習課題における重み付きグラフの比較のためのスケーラブルトポロジ解析
- Authors: Eduard Tulchinskii, Daria Voronkova, Ilya Trofimov, Evgeny Burnaev, Serguei Barannikov,
- Abstract要約: 重み付きグラフの比較のためのトポロジ的手法は、大きなデータセット上での計算の非効率性に悩まされることが多い。
本稿では,トポロジ的特徴を効率的に比較するスケーラブルなアルゴリズムRTD-Liteを紹介する。
この効率性により、次元削減やニューラルネットワークトレーニングといったタスクに応用できる。
- 参考スコア(独自算出の注目度): 21.49200381462702
- License:
- Abstract: Topological methods for comparing weighted graphs are valuable in various learning tasks but often suffer from computational inefficiency on large datasets. We introduce RTD-Lite, a scalable algorithm that efficiently compares topological features, specifically connectivity or cluster structures at arbitrary scales, of two weighted graphs with one-to-one correspondence between vertices. Using minimal spanning trees in auxiliary graphs, RTD-Lite captures topological discrepancies with $O(n^2)$ time and memory complexity. This efficiency enables its application in tasks like dimensionality reduction and neural network training. Experiments on synthetic and real-world datasets demonstrate that RTD-Lite effectively identifies topological differences while significantly reducing computation time compared to existing methods. Moreover, integrating RTD-Lite into neural network training as a loss function component enhances the preservation of topological structures in learned representations. Our code is publicly available at https://github.com/ArGintum/RTD-Lite
- Abstract(参考訳): 重み付きグラフを比較するトポロジ的手法は,様々な学習課題において有用であるが,大規模データセットの計算不効率に悩まされることが多い。
本稿では,2つの重み付きグラフと頂点間の1対1の対応性を持つトポロジ的特徴,特に接続性やクラスタ構造を任意のスケールで効率的に比較するスケーラブルなアルゴリズムRTD-Liteを紹介する。
補助グラフにおける最小のスパンニング木を用いて、RTD-Liteは、$O(n^2)$時間とメモリの複雑さで位相的不一致をキャプチャする。
この効率性により、次元削減やニューラルネットワークトレーニングといったタスクに応用できる。
合成および実世界のデータセットの実験により、RTD-Liteは、既存の手法と比較して計算時間を著しく短縮しつつ、トポロジ的差異を効果的に識別することを示した。
さらに、損失関数成分としてRTD-Liteをニューラルネットワークトレーニングに統合することで、学習表現における位相構造の保存が促進される。
私たちのコードはhttps://github.com/ArGintum/RTD-Liteで公開されています。
関連論文リスト
- GraphMinNet: Learning Dependencies in Graphs with Light Complexity Minimal Architecture [12.267920696617017]
本稿では,最小限のGated Recurrent Unitの考え方をグラフ構造化データに一般化した新しいGNNアーキテクチャであるGraphMinNetを紹介する。
本手法は線形計算複雑性を伴う効率的なLRDモデリングを実現する。
その結果、10のデータセットのうち6つが優れた性能を示し、他のデータセットと競合する結果が得られた。
論文 参考訳(メタデータ) (2025-02-01T02:46:48Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Learning Graph Search Heuristics [48.83557172525969]
本稿では,新しいニューラルネットワークと学習アルゴリズムであるPHIL(Path Heuristic with Imitation Learning)について述べる。
我々の関数は、ノード距離の推測に有用なグラフ埋め込みを学習し、グラフサイズに依存しない一定時間で実行し、テスト時にA*のようなアルゴリズムに容易に組み込むことができる。
実験の結果、PHILはベンチマークデータセットの最先端の手法と比較して平均58.5%の探索ノード数を削減している。
論文 参考訳(メタデータ) (2022-12-07T22:28:00Z) - pyGSL: A Graph Structure Learning Toolkit [14.000763778781547]
pyGSLは、最先端のグラフ構造学習モデルの効率的な実装を提供するPythonライブラリである。
pyGSLはGPUフレンドリーな方法で書かれており、より大きなネットワークタスクにスケールすることができる。
論文 参考訳(メタデータ) (2022-11-07T14:23:10Z) - SCARA: Scalable Graph Neural Networks with Feature-Oriented Optimization [23.609017952951454]
グラフ計算のための特徴指向最適化を備えたスケーラブルグラフニューラルネットワーク(GNN)であるSCARAを提案する。
SCARAはノードの特徴からグラフの埋め込みを効率的に計算し、機能の結果を選択して再利用することでオーバーヘッドを減らします。
利用可能な最大10億のGNNデータセットであるPapers100M(1110万ノード、1.6Bエッジ)を100秒でプリ計算するのが効率的である。
論文 参考訳(メタデータ) (2022-07-19T10:32:11Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Condensing Graphs via One-Step Gradient Matching [50.07587238142548]
ネットワーク重みを訓練せずに1ステップのみの勾配マッチングを行う1ステップ勾配マッチング方式を提案する。
我々の理論的分析は、この戦略が実際のグラフの分類損失を減少させる合成グラフを生成することができることを示している。
特に、元のパフォーマンスの最大98%を近似しながら、データセットサイズを90%削減することが可能です。
論文 参考訳(メタデータ) (2022-06-15T18:20:01Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。