論文の概要: Synergistic Graph Fusion via Encoder Embedding
- arxiv url: http://arxiv.org/abs/2303.18051v1
- Date: Fri, 31 Mar 2023 13:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 13:55:35.359538
- Title: Synergistic Graph Fusion via Encoder Embedding
- Title(参考訳): エンコーダ埋め込みによる相乗グラフ融合
- Authors: Cencheng Shen, Carey E. Priebe, Jonathan Larson, Ha Trinh
- Abstract要約: 本稿では,グラフ融合エンコーダ埋め込みと呼ばれる新しいマルチグラフ埋め込み手法を提案する。
その結果, 組込み効果は驚くべきが, 非常に望ましい「シネルジスティック・エフェクト」を示すことがわかった。
ブロックモデルの下でこの効果を数学的に証明し、必要十分条件をフォリーパーフェクトに分類する。
- 参考スコア(独自算出の注目度): 11.933243315519015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a novel approach to multi-graph embedding called
graph fusion encoder embedding. The method is designed to work with multiple
graphs that share a common vertex set. Under the supervised learning setting,
we show that the resulting embedding exhibits a surprising yet highly desirable
"synergistic effect": for sufficiently large vertex size, the vertex
classification accuracy always benefits from additional graphs. We provide a
mathematical proof of this effect under the stochastic block model, and
identify the necessary and sufficient condition for asymptotically perfect
classification. The simulations and real data experiments confirm the
superiority of the proposed method, which consistently outperforms recent
benchmark methods in classification.
- Abstract(参考訳): 本稿では,グラフ融合エンコーダ埋め込みと呼ばれるマルチグラフ埋め込みへの新しいアプローチを提案する。
この方法は、共通の頂点集合を共有する複数のグラフを扱うように設計されている。
教師付き学習環境下では、結果として得られる埋め込みは驚くべきが非常に望ましい「シネルジスティック効果」を示し、十分に大きな頂点サイズの場合、頂点分類精度は追加グラフの恩恵を受ける。
確率的ブロックモデルの下でこの効果を数学的に証明し,漸近的完全分類に必要な十分条件を明らかにする。
シミュレーションと実データ実験により提案手法の優位性が確認され,最新のベンチマーク手法よりも常に優れていた。
関連論文リスト
- Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Randomized Schur Complement Views for Graph Contrastive Learning [0.0]
グラフコントラスト学習(GCL)のためのSchur補数に基づくランダム化トポロジカル拡張器を提案する。
グラフラプラシア行列が与えられたとき、この手法はシュア補数の不偏近似を生成し、対応するグラフを拡張ビューとして扱う。
論文 参考訳(メタデータ) (2023-06-06T20:35:20Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Convergent Boosted Smoothing for Modeling Graph Data with Tabular Node
Features [46.052312251801]
本稿では,グラフ伝播ステップでブースティングを反復するフレームワークを提案する。
我々のアプローチは、原則化されたメタロス関数に固定されている。
様々な非イドグラフデータセットに対して,本手法は同等あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2021-10-26T04:53:12Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z) - Multilayer Graph Clustering with Optimized Node Embedding [70.1053472751897]
多層グラフクラスタリングは、グラフノードをカテゴリまたはコミュニティに分割することを目指しています。
与えられた多層グラフの層をクラスタリングに親しみやすい埋め込みを提案する。
実験の結果,本手法は著しい改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2021-03-30T17:36:40Z) - Fusion Moves for Graph Matching [35.27002115682325]
グラフマッチングとしても知られる二次代入問題に対する近似アルゴリズムに寄与する。
マルチラベル離散マルコフ確率場のための融合移動法の成功に触発され,グラフマッチングへの適用性を検討した。
本稿では,ラグランジュ二元法と効率的に組み合わせる方法について述べる。
論文 参考訳(メタデータ) (2021-01-28T16:09:46Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。