論文の概要: Learning Graph Neural Networks with Positive and Unlabeled Nodes
- arxiv url: http://arxiv.org/abs/2103.04683v1
- Date: Mon, 8 Mar 2021 11:43:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:27:50.977676
- Title: Learning Graph Neural Networks with Positive and Unlabeled Nodes
- Title(参考訳): 正およびラベルなしノードを用いたグラフニューラルネットワークの学習
- Authors: Man Wu, Shirui Pan, Lan Du, Xingquan Zhu
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフのノード分類など、トランスダクティブな学習タスクのための重要なツールです。
ほとんどのGNNモデルは、各ラウンドで短い距離から情報を集約し、グラフで長距離関係をキャプチャできません。
本論文では,これらの制限を克服するために,新しいグラフニューラルネットワークフレームワーク,LSDAN(Long-Short distance aggregation Network)を提案する。
- 参考スコア(独自算出の注目度): 34.903471348798725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph neural networks (GNNs) are important tools for transductive learning
tasks, such as node classification in graphs, due to their expressive power in
capturing complex interdependency between nodes. To enable graph neural network
learning, existing works typically assume that labeled nodes, from two or
multiple classes, are provided, so that a discriminative classifier can be
learned from the labeled data. In reality, this assumption might be too
restrictive for applications, as users may only provide labels of interest in a
single class for a small number of nodes. In addition, most GNN models only
aggregate information from short distances (e.g., 1-hop neighbors) in each
round, and fail to capture long distance relationship in graphs. In this paper,
we propose a novel graph neural network framework, long-short distance
aggregation networks (LSDAN), to overcome these limitations. By generating
multiple graphs at different distance levels, based on the adjacency matrix, we
develop a long-short distance attention model to model these graphs. The direct
neighbors are captured via a short-distance attention mechanism, and neighbors
with long distance are captured by a long distance attention mechanism. Two
novel risk estimators are further employed to aggregate long-short-distance
networks, for PU learning and the loss is back-propagated for model learning.
Experimental results on real-world datasets demonstrate the effectiveness of
our algorithm.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード間の複雑な相互依存を捕捉する表現力のために、グラフのノード分類などのトランダクティブ学習タスクのための重要なツールです。
グラフニューラルネットワークの学習を可能にするために、既存の研究では、ラベル付きノードが2つまたは複数のクラスから提供されると仮定し、ラベル付きデータから識別的分類器を学ぶことができる。
実際には、この仮定はアプリケーションにとってあまりにも制限的であり、ユーザーは少数のノードに対して単一のクラスに関心のあるラベルしか提供できない。
さらに、ほとんどのGNNモデルは、各ラウンドにおける短距離(例えば1ホップの隣人)の情報のみを集約し、グラフ内の長距離関係を捉えることができない。
本稿では,これらの制約を克服するために,新しいグラフニューラルネットワークフレームワークである長短距離集約ネットワーク(LSDAN)を提案する。
隣接行列に基づいて、異なる距離レベルで複数のグラフを生成することにより、これらのグラフをモデル化する長距離距離注意モデルを開発する。
直近の隣人は近距離の注意機構で捕捉され、遠距離の隣人は遠距離の注意機構で捕捉される。
さらに2つの新しいリスク推定器を用いて、pu学習のための長距離ネットワークを集約し、モデル学習のために損失をバックプロパゲーションする。
実世界のデータセットにおける実験結果は,本アルゴリズムの有効性を示す。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Learning on Graphs with Out-of-Distribution Nodes [33.141867473074264]
グラフニューラルネットワーク(GNN)は、グラフ上で予測タスクを実行するための最先端モデルである。
この研究は、分散ノードによるグラフ学習の問題を定義する。
本稿では,異なるノード間の相互作用を明示的にモデル化する新しいGNNモデルであるOut-of-Distribution Graph Attention Network (OODGAT)を提案する。
論文 参考訳(メタデータ) (2023-08-13T08:10:23Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Inferential SIR-GN: Scalable Graph Representation Learning [0.4699313647907615]
グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
論文 参考訳(メタデータ) (2021-11-08T20:56:37Z) - Hierarchical graph neural nets can capture long-range interactions [8.067880298298185]
与えられたグラフの多重解像度表現を利用する階層的メッセージパッシングモデルについて検討する。
これにより、ローカル情報を失うことなく、大きな受容領域にまたがる特徴の学習が容易になる。
階層グラフネット(HGNet)を導入し、任意の2つの接続ノードに対して、最大対数長のメッセージパスパスが存在することを保証します。
論文 参考訳(メタデータ) (2021-07-15T16:24:22Z) - Isometric Graph Neural Networks [5.306334746787569]
我々はIsometric Graph Neural Networks (IGNN) の学習手法を提案する。
IGNNは、任意のGNNアルゴリズムがノード間の距離を反映した表現を生成するために、入力表現空間と損失関数を変更する必要がある。
我々はケンドールのタウ(KT)の400%まで、一貫した実質的な改善を観察する。
論文 参考訳(メタデータ) (2020-06-16T22:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。