論文の概要: Laplacian-based Semi-Supervised Learning in Multilayer Hypergraphs by
Coordinate Descent
- arxiv url: http://arxiv.org/abs/2301.12184v1
- Date: Sat, 28 Jan 2023 12:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 18:39:31.134234
- Title: Laplacian-based Semi-Supervised Learning in Multilayer Hypergraphs by
Coordinate Descent
- Title(参考訳): 多層ハイパーグラフにおけるラプラシアンに基づく半教師付き学習
- Authors: Sara Venturini, Andrea Cristofari, Francesco Rinaldi, Francesco
Tudisco
- Abstract要約: Graph Semi-Supervised Learningは重要なデータ分析ツールである。
本稿では,非方向性グラフに対する問題の最適化に基づく定式化について考察する。
異なる座標勾配法を用いて問題を解き、古典的な勾配勾配法で得られた手法と比較する。
- 参考スコア(独自算出の注目度): 2.752817022620644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Semi-Supervised learning is an important data analysis tool, where
given a graph and a set of labeled nodes, the aim is to infer the labels to the
remaining unlabeled nodes. In this paper, we start by considering an
optimization-based formulation of the problem for an undirected graph, and then
we extend this formulation to multilayer hypergraphs. We solve the problem
using different coordinate descent approaches and compare the results with the
ones obtained by the classic gradient descent method. Experiments on synthetic
and real-world datasets show the potential of using coordinate descent methods
with suitable selection rules.
- Abstract(参考訳): Graph Semi-Supervised Learningは重要なデータ分析ツールであり、グラフとラベル付きノードのセットが与えられたら、ラベルを残らないノードに推論することを目的としている。
本稿では,無向グラフ問題に対する最適化に基づく定式化の検討から始めて,この定式化を多層ハイパーグラフに拡張する。
異なる座標勾配法を用いて問題を解き、古典的な勾配勾配法で得られた手法と比較する。
合成および実世界のデータセットの実験は、適切な選択規則を持つ座標降下法を用いることの可能性を示している。
関連論文リスト
- Nonlinear Correct and Smooth for Semi-Supervised Learning [1.622641093702668]
グラフベースの半教師付き学習(GSSL)は様々なアプリケーションで成功している。
非線型表現と高次表現を組み込むことで、既存の後処理アプローチを改善するCorrect and Smooth (NLCS)を提案する。
論文 参考訳(メタデータ) (2023-10-09T14:33:32Z) - Gradient scarcity with Bilevel Optimization for Graph Learning [0.0]
勾配不足は、ノードのサブセットの損失を最小限にすることでグラフを学習する際に発生する。
我々は、この現象の正確な数学的特徴を与え、双レベル最適化にも現れることを証明した。
この問題を緩和するために,グラフ・ツー・グラフモデル(G2G)を用いた潜時グラフ学習,グラフに先行構造を課すグラフ正規化,あるいは直径を縮小した元のグラフよりも大きなグラフを最適化することを提案する。
論文 参考訳(メタデータ) (2023-03-24T12:37:43Z) - Joint Graph and Vertex Importance Learning [47.249968772606145]
ラプラシアンアプローチと比較してエッジウェイト上界が小さいグラフを学習する新しい手法を提案する。
実験により, より解釈可能なモデルを用いて, ラプラシアン法に比べてスペーサーグラフが多数得られた。
論文 参考訳(メタデータ) (2023-03-15T12:12:13Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Graph Transplant: Node Saliency-Guided Graph Mixup with Local Structure
Preservation [27.215800308343322]
グラフトランスポート(Graph Transplant)と呼ばれるグラフレベルでMixupライクなグラフ拡張手法を提案する。
本手法では, 局所情報を保存可能な混合単位としてサブ構造を同定する。
複数のグラフ分類ベンチマークデータセットを用いて,多様なGNNアーキテクチャを用いて提案手法を広範囲に検証する。
論文 参考訳(メタデータ) (2021-11-10T11:10:13Z) - Multilayer Graph Clustering with Optimized Node Embedding [70.1053472751897]
多層グラフクラスタリングは、グラフノードをカテゴリまたはコミュニティに分割することを目指しています。
与えられた多層グラフの層をクラスタリングに親しみやすい埋め込みを提案する。
実験の結果,本手法は著しい改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2021-03-30T17:36:40Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - Wasserstein-based Graph Alignment [56.84964475441094]
我々は,より小さいグラフのノードと大きなグラフのノードをマッチングすることを目的とした,1対多のグラフアライメント問題に対する新しい定式化を行った。
提案手法は,各タスクに対する最先端のアルゴリズムに対して,大幅な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-03-12T22:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。