論文の概要: GRIL: A $2$-parameter Persistence Based Vectorization for Machine
Learning
- arxiv url: http://arxiv.org/abs/2304.04970v2
- Date: Fri, 30 Jun 2023 16:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 15:11:23.219913
- Title: GRIL: A $2$-parameter Persistence Based Vectorization for Machine
Learning
- Title(参考訳): GRIL: 機械学習のための2ドルのパラメータ永続化に基づくベクトル化
- Authors: Cheng Xin, Soham Mukherjee, Shreyas N. Samaga, Tamal K. Dey
- Abstract要約: 本稿では,パラメータ持続モジュールに対してGRIL(Generalized Rank Invariant Landscape)と呼ばれる新しいベクトル表現を導入する。
このベクトル表現は1$-Lipschitz 安定であり、下層の濾過関数に対して微分可能であることを示す。
また、GRILがグラフニューラルネットワーク(GNN)に富む追加機能をキャプチャできることを示す性能の向上も観察している。
- 参考スコア(独自算出の注目度): 0.49703640686206074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: $1$-parameter persistent homology, a cornerstone in Topological Data Analysis
(TDA), studies the evolution of topological features such as connected
components and cycles hidden in data. It has been applied to enhance the
representation power of deep learning models, such as Graph Neural Networks
(GNNs). To enrich the representations of topological features, here we propose
to study $2$-parameter persistence modules induced by bi-filtration functions.
In order to incorporate these representations into machine learning models, we
introduce a novel vector representation called Generalized Rank Invariant
Landscape (GRIL) for $2$-parameter persistence modules. We show that this
vector representation is $1$-Lipschitz stable and differentiable with respect
to underlying filtration functions and can be easily integrated into machine
learning models to augment encoding topological features. We present an
algorithm to compute the vector representation efficiently. We also test our
methods on synthetic and benchmark graph datasets, and compare the results with
previous vector representations of $1$-parameter and $2$-parameter persistence
modules. Further, we augment GNNs with GRIL features and observe an increase in
performance indicating that GRIL can capture additional features enriching
GNNs. We make the complete code for the proposed method available at
https://github.com/soham0209/mpml-graph.
- Abstract(参考訳): トポロジカルデータ分析(TDA)の基盤となる1ドルパラメトリ・永続ホモロジーは、連結成分やデータに隠されたサイクルなどのトポロジ的特徴の進化を研究する。
グラフニューラルネットワーク(GNN)のようなディープラーニングモデルの表現力を向上するために応用されている。
トポロジカルな特徴の表現を豊かにするために,双濾過関数によって誘導されるパラメータ持続モジュールについて検討する。
これらの表現を機械学習モデルに組み込むために,2ドルのパーシステンスモジュールに対して一般化ランク不変ランドスケープ(gril)と呼ばれる新しいベクトル表現を導入する。
このベクトル表現は、基礎となる濾過関数に対して安定で微分可能であり、トポロジ的特徴を符号化するために機械学習モデルに容易に組み込むことができることを示す。
ベクトル表現を効率的に計算するアルゴリズムを提案する。
私たちはまた、合成グラフとベンチマークグラフデータセットでメソッドをテストし、その結果を1ドルのパラメータと2ドルのパーシステンスモジュールの以前のベクター表現と比較します。
さらに、GRIL機能付きGNNを拡張し、GRILがGNNを豊かにする追加機能をキャプチャできることを示す性能向上を観察する。
提案手法の完全なコードはhttps://github.com/soham0209/mpml-graphで利用可能である。
関連論文リスト
- Tensor-Fused Multi-View Graph Contrastive Learning [12.412040359604163]
グラフコントラッシブラーニング(GCL)は、グラフニューラルネットワーク(GNN)の機能を強化し、ラベルのないグラフ構造化データからリッチな表現を学習するための、有望なアプローチとして登場した。
現在のGCLモデルは、計算要求と限られた機能利用の課題に直面している。
提案するTensorMV-GCLは,拡張された永続的ホモロジーをGCL表現と統合し,マルチスケールな特徴抽出を容易にする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-10-20T01:40:12Z) - Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Calibrate and Boost Logical Expressiveness of GNN Over Multi-Relational
and Temporal Graphs [8.095679736030146]
2つの変数と数量化器を持つ一階述語論理の断片である$mathcalFOC$NNについて検討する。
本稿では,線形時間で実行可能な,前処理ステップに似た単純なグラフ変換手法を提案する。
我々の結果は,グラフ変換によるR$2$-GNNが,合成および実世界のデータセットのベースライン手法よりも優れていることを一貫して示している。
論文 参考訳(メタデータ) (2023-11-03T00:33:24Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - For Manifold Learning, Deep Neural Networks can be Locality Sensitive
Hash Functions [14.347610075713412]
ニューラル表現は、各入力を埋め込みにマップするLSHライクな関数として見ることができる。
この行動の重要な結果は、見えないクラスへのワンショット学習です。
論文 参考訳(メタデータ) (2021-03-11T18:57:47Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。