論文の概要: Stationary Diffusion State Neural Estimation for Multiview Clustering
- arxiv url: http://arxiv.org/abs/2112.01334v1
- Date: Thu, 2 Dec 2021 15:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:54:51.875749
- Title: Stationary Diffusion State Neural Estimation for Multiview Clustering
- Title(参考訳): 多視点クラスタリングのための定常拡散状態ニューラル推定
- Authors: Chenghua Liu, Zhuolin Liao, Yixuan Ma, Kun Zhan
- Abstract要約: ニューラルネットワーク上での勾配降下により定常拡散状態の推定が可能であることを論じる。
教師なしマルチビュー学習のためのグラフニューラルネットワークを設計し、複数のグラフを統一されたコンセンサスグラフに統合する。
複数のマルチビューデータセットの実験では、6つのクラスタリング評価指標によるSDSNEの有効性が示されている。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although many graph-based clustering methods attempt to model the stationary
diffusion state in their objectives, their performance limits to using a
predefined graph. We argue that the estimation of the stationary diffusion
state can be achieved by gradient descent over neural networks. We specifically
design the Stationary Diffusion State Neural Estimation (SDSNE) to exploit
multiview structural graph information for co-supervised learning. We explore
how to design a graph neural network specially for unsupervised multiview
learning and integrate multiple graphs into a unified consensus graph by a
shared self-attentional module. The view-shared self-attentional module
utilizes the graph structure to learn a view-consistent global graph.
Meanwhile, instead of using auto-encoder in most unsupervised learning graph
neural networks, SDSNE uses a co-supervised strategy with structure information
to supervise the model learning. The co-supervised strategy as the loss
function guides SDSNE in achieving the stationary state. With the help of the
loss and the self-attentional module, we learn to obtain a graph in which nodes
in each connected component fully connect by the same weight. Experiments on
several multiview datasets demonstrate effectiveness of SDSNE in terms of six
clustering evaluation metrics.
- Abstract(参考訳): 多くのグラフベースのクラスタリング手法は、目的の定常拡散状態をモデル化しようとするが、その性能は予め定義されたグラフを使用することに制限される。
ニューラルネットワーク上での勾配降下により定常拡散状態の推定が可能であることを論じる。
本研究では,SDSNE(Stationary Diffusion State Neural Estimation)を設計し,多視点構造グラフ情報を利用して協調学習を行う。
本稿では,教師なしマルチビュー学習のためのグラフニューラルネットワークの設計法と,共有自己着眼モジュールによる統一コンセンサスグラフへの複数のグラフの統合について検討する。
ビュー共有自己アテンショナルモジュールは、ビュー一貫性のグローバルグラフを学習するためにグラフ構造を利用する。
一方、ほとんどの教師なし学習グラフニューラルネットワークでオートエンコーダを使用する代わりに、SDSNEは構造情報を備えた協調教師付き戦略を使用してモデル学習を監督する。
損失関数がsdsneを導いて定常状態を達成するための戦略を監督する。
損失と自己結合モジュールの助けを借りて、連結された各コンポーネントのノードが同じ重みで完全に接続するグラフを得ることを学ぶ。
複数のマルチビューデータセットの実験では、6つのクラスタリング評価指標によるSDSNEの有効性が示されている。
関連論文リスト
- Self-Supervised Contrastive Graph Clustering Network via Structural Information Fusion [15.293684479404092]
CGCNと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,事前学習プロセスにコントラスト信号と深部構造情報を導入している。
本手法は,複数の実世界のグラフデータセットに対して実験的に検証されている。
論文 参考訳(メタデータ) (2024-08-08T09:49:26Z) - LSEnet: Lorentz Structural Entropy Neural Network for Deep Graph Clustering [59.89626219328127]
グラフクラスタリングは機械学習の基本的な問題である。
近年、ディープラーニング手法は最先端の成果を達成しているが、事前に定義されたクラスタ番号なしでは動作できない。
本稿では,グラフ情報理論の新たな視点からこの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-05-20T05:46:41Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Fisher Information Embedding for Node and Graph Learning [5.263910852465186]
本稿では,グラフのための新しい注目型ノード埋め込みフレームワークを提案する。
我々のフレームワークはノード周辺のサブグラフの多重集合のための階層的カーネル上に構築されている。
埋め込みの一般化性と表現性に関する理論的知見を提供する。
論文 参考訳(メタデータ) (2023-05-12T16:15:30Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Learning Robust Representation through Graph Adversarial Contrastive
Learning [6.332560610460623]
既存の研究では、グラフニューラルネットワーク(GNN)によって生成されたノード表現が、敵の攻撃に対して脆弱であることが示されている。
本稿では,グラフ自己教師型学習に対数拡張を導入することにより,新しいグラフ適応型コントラスト学習フレームワーク(GraphACL)を提案する。
論文 参考訳(メタデータ) (2022-01-31T07:07:51Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Self-supervised Consensus Representation Learning for Attributed Graph [15.729417511103602]
グラフ表現学習に自己教師付き学習機構を導入する。
本稿では,新しい自己教師型コンセンサス表現学習フレームワークを提案する。
提案手法はトポロジグラフと特徴グラフの2つの視点からグラフを扱う。
論文 参考訳(メタデータ) (2021-08-10T07:53:09Z) - Graph Representation Learning by Ensemble Aggregating Subgraphs via
Mutual Information Maximization [5.419711903307341]
グラフニューラルネットワークが学習するグラフレベルの表現を高めるための自己監視型学習法を提案する。
グラフ構造を網羅的に理解するために,サブグラフ法のようなアンサンブル学習を提案する。
また, 効率的かつ効果的な対位学習を実現するために, ヘッドテールコントラストサンプル構築法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:12Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。