論文の概要: Characteristic Functions on Graphs: Birds of a Feather, from Statistical
Descriptors to Parametric Models
- arxiv url: http://arxiv.org/abs/2005.07959v2
- Date: Sun, 16 Aug 2020 16:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:06:17.759981
- Title: Characteristic Functions on Graphs: Birds of a Feather, from Statistical
Descriptors to Parametric Models
- Title(参考訳): グラフ上の特徴関数:統計記述子からパラメトリックモデルへの羽の鳥
- Authors: Benedek Rozemberczki and Rik Sarkar
- Abstract要約: 本稿では,特徴関数の特定の変量を計算するための計算効率の良いアルゴリズムであるFEATHERを紹介する。
FEATHERによって抽出された機能は、ノードレベルの機械学習タスクに有用である、と我々は主張する。
実世界の大規模データセットを用いた実験により,提案アルゴリズムが高品質な表現を生成することを示す。
- 参考スコア(独自算出の注目度): 8.147652597876862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a flexible notion of characteristic functions
defined on graph vertices to describe the distribution of vertex features at
multiple scales. We introduce FEATHER, a computationally efficient algorithm to
calculate a specific variant of these characteristic functions where the
probability weights of the characteristic function are defined as the
transition probabilities of random walks. We argue that features extracted by
this procedure are useful for node level machine learning tasks. We discuss the
pooling of these node representations, resulting in compact descriptors of
graphs that can serve as features for graph classification algorithms. We
analytically prove that FEATHER describes isomorphic graphs with the same
representation and exhibits robustness to data corruption. Using the node
feature characteristic functions we define parametric models where evaluation
points of the functions are learned parameters of supervised classifiers.
Experiments on real world large datasets show that our proposed algorithm
creates high quality representations, performs transfer learning efficiently,
exhibits robustness to hyperparameter changes, and scales linearly with the
input size.
- Abstract(参考訳): 本稿では,頂点関数の分布を記述するために,グラフ頂点上で定義される特徴関数のフレキシブルな概念を提案する。
特徴関数の確率重みがランダムウォークの遷移確率として定義される特徴関数の特定の変分を計算するための計算効率の良いアルゴリズムであるFEATHERを導入する。
本手法により抽出された特徴は,ノードレベルの機械学習タスクに有用である。
これらのノード表現のプーリングについて議論し、グラフ分類アルゴリズムの機能として機能するグラフのコンパクトな記述子を得る。
FEATHERが同じ表現を持つ同型グラフを記述し、データの破損に対する堅牢性を示すことを解析的に証明する。
ノード特徴関数を用いて,関数の評価点が教師付き分類器の学習パラメータとなるパラメトリックモデルを定義する。
実世界の大規模データセットを用いた実験では,提案手法が高品質表現を作成し,転送学習を効率的に行い,ハイパーパラメータ変化に対する頑健性を示し,入力サイズに線形にスケールすることを示す。
関連論文リスト
- Linear Transformer Topological Masking with Graph Random Features [52.717865653036796]
重み付き隣接行列の学習可能な関数としてトポロジカルマスクをパラメータ化する方法を示す。
私たちの効率的なマスキングアルゴリズムは、画像およびポイントクラウドデータのタスクに対して、強力なパフォーマンス向上を提供します。
論文 参考訳(メタデータ) (2024-10-04T14:24:06Z) - Bures-Wasserstein Means of Graphs [60.42414991820453]
本研究では,スムーズなグラフ信号分布の空間への埋め込みを通じて,グラフ平均を定義する新しいフレームワークを提案する。
この埋め込み空間において平均を求めることにより、構造情報を保存する平均グラフを復元することができる。
我々は,新しいグラフの意味の存在と特異性を確立し,それを計算するための反復アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-05-31T11:04:53Z) - Creating generalizable downstream graph models with random projections [22.690120515637854]
本稿では,グラフ全体にわたってモデルを一般化するグラフ表現学習手法について検討する。
遷移行列の複数のパワーを推定するためにランダムな射影を用いることで、同型不変な特徴の集合を構築することができることを示す。
結果として得られる特徴は、ノードの局所的近傍に関する十分な情報を回復するために使用することができ、他のアプローチと競合する推論を可能にする。
論文 参考訳(メタデータ) (2023-02-17T14:27:00Z) - Neural Eigenfunctions Are Structured Representation Learners [93.53445940137618]
本稿ではニューラル固有写像という,構造化された適応長の深部表現を提案する。
本稿では,データ拡張設定における正の関係から固有関数が導出される場合,NeuralEFを適用することで目的関数が得られることを示す。
画像検索システムにおいて,適応長符号のような表現を用いることを実証する。
論文 参考訳(メタデータ) (2022-10-23T07:17:55Z) - The PWLR Graph Representation: A Persistent Weisfeiler-Lehman scheme
with Random Walks for Graph Classification [0.6999740786886536]
グラフ表現のための永続Weisfeiler-Lehmanランダムウォークスキーム(PWLR)。
我々はWeisfeiler-Lehmanプロシージャの多くの変種を一般化する。
論文 参考訳(メタデータ) (2022-08-29T08:50:37Z) - Accurate Node Feature Estimation with Structured Variational Graph
Autoencoder [21.436706159840014]
ノードの特徴を部分的に観察したグラフを考えると、不足する特徴を正確に見積もるにはどうすればよいのか?
特徴量推定のための精度の高いSVGA(Structured Variational Graph Autoencoder)を提案する。
その結果、SVGAは確率的推論とグラフニューラルネットワークの利点を組み合わせて、実際のデータセットで最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2022-06-09T14:07:45Z) - SSFG: Stochastically Scaling Features and Gradients for Regularizing
Graph Convolution Networks [7.075802972628797]
繰り返しグラフ畳み込みを適用すると、余計な問題を引き起こす可能性がある。
この問題に対処するための正規化手法を提案する。
本手法は,ベースライングラフネットワーク全体の性能を効果的に改善する。
論文 参考訳(メタデータ) (2021-02-20T12:59:48Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - FuDGE: A Method to Estimate a Functional Differential Graph in a
High-Dimensional Setting [17.104487467949113]
共有構造を持つ2つの非方向機能的グラフィカルモデルの違いを推定する問題を考察する。
まず、2つの機能的グラフィカルモデルの違いを捉える関数微分グラフを定義する。
次に,まず各グラフを推定せずに関数微分グラフを直接推定する手法FuDGEを提案する。
論文 参考訳(メタデータ) (2020-03-11T16:47:22Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。