論文の概要: Learning from the Dark: Boosting Graph Convolutional Neural Networks
with Diverse Negative Samples
- arxiv url: http://arxiv.org/abs/2210.00728v1
- Date: Mon, 3 Oct 2022 06:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:26:08.837755
- Title: Learning from the Dark: Boosting Graph Convolutional Neural Networks
with Diverse Negative Samples
- Title(参考訳): 暗黒から学ぶ - さまざまな負のサンプルによるグラフ畳み込みニューラルネットワークの促進
- Authors: Wei Duan, Junyu Xuan, Maoying Qiao, Jie Lu
- Abstract要約: グラフは、大きく、暗く、すべて忘れられた世界を持ち、隣り合うノード(負のサンプル)を見つける。
この大暗黒世界は、表現学習に役立つかもしれない膨大な量の情報を持っていることを示す。
我々の全体的な考え方は、各ノードに対して適切な負のサンプルを選択し、これらのサンプルに含まれる負の情報を表現更新に組み込むことである。
- 参考スコア(独自算出の注目度): 19.588559820438718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Neural Networks (GCNs) has been generally accepted to be
an effective tool for node representations learning. An interesting way to
understand GCNs is to think of them as a message passing mechanism where each
node updates its representation by accepting information from its neighbours
(also known as positive samples). However, beyond these neighbouring nodes,
graphs have a large, dark, all-but forgotten world in which we find the
non-neighbouring nodes (negative samples). In this paper, we show that this
great dark world holds a substantial amount of information that might be useful
for representation learning. Most specifically, it can provide negative
information about the node representations. Our overall idea is to select
appropriate negative samples for each node and incorporate the negative
information contained in these samples into the representation updates.
Moreover, we show that the process of selecting the negative samples is not
trivial. Our theme therefore begins by describing the criteria for a good
negative sample, followed by a determinantal point process algorithm for
efficiently obtaining such samples. A GCN, boosted by diverse negative samples,
then jointly considers the positive and negative information when passing
messages. Experimental evaluations show that this idea not only improves the
overall performance of standard representation learning but also significantly
alleviates over-smoothing problems.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(GCN)は一般にノード表現学習の効果的なツールとして受け入れられている。
GCNを理解するための興味深い方法は、各ノードが隣人(正のサンプルとしても知られる)の情報を受け入れてその表現を更新するメッセージパッシングメカニズムであると考えることである。
しかし、これらの隣接ノードを超えて、グラフは大きな、暗く、すべて忘れ去られた世界を持ち、非結合ノード(負のサンプル)を見つける。
本稿では,この暗黒世界は表現学習に有用な膨大な情報を持っていることを示す。
特に、ノード表現に関するネガティブな情報を提供することができる。
我々の全体的な考え方は、各ノードに対して適切な負のサンプルを選択し、これらのサンプルに含まれる負の情報を表現更新に組み込むことである。
さらに, 負のサンプルを選択する過程は自明ではないことを示す。
それゆえ,本論文のテーマは,良質な負のサンプルの基準を記述することから始まり,次いで,そのサンプルを効率的に得るための決定行列的ポイントプロセスアルゴリズムが続く。
GCNは多様な負のサンプルによって増強され、メッセージを渡す際の正と負の情報を共同で検討する。
実験的評価により、このアイデアは標準表現学習の全体的なパフォーマンスを向上させるだけでなく、過剰な学習問題を大幅に軽減することが示された。
関連論文リスト
- Graph Ranking Contrastive Learning: A Extremely Simple yet Efficient Method [17.760628718072144]
InfoNCEは2つのビューを得るために拡張技術を使用し、1つのビューのノードがアンカーとして機能し、もう1つのビューの対応するノードが正のサンプルとして機能し、他のすべてのノードが負のサンプルとみなされる。
目標は、アンカーノードと正のサンプルの間の距離を最小化し、負のサンプルまでの距離を最大化することである。
トレーニング中にラベル情報が不足しているため、InfoNCEは必然的に同じクラスのサンプルを負のサンプルとして扱い、偽の負のサンプルの問題を引き起こす。
偽陰性サンプルの問題に対処する簡易かつ効率的なグラフコントラスト学習法であるGraphRankを提案する。
論文 参考訳(メタデータ) (2023-10-23T03:15:57Z) - STERLING: Synergistic Representation Learning on Bipartite Graphs [78.86064828220613]
二部グラフ表現学習の基本的な課題は、ノードの埋め込みを抽出する方法である。
最近の二部グラフSSL法は、正ノード対と負ノード対を識別することによって埋め込みを学習する対照的な学習に基づいている。
負のノードペアを持たないノード埋め込みを学習するための新しい相乗的表現学習モデル(STERling)を提案する。
論文 参考訳(メタデータ) (2023-01-25T03:21:42Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Graph Convolutional Neural Networks with Diverse Negative Samples via
Decomposed Determinant Point Processes [21.792376993468064]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において大きな成功を収めている。
本稿では, 様々な負のサンプルを得るために, 品質多様性の分解を決定点過程に用いた。
本稿では,計算効率を向上させるための最短パスベース手法を提案する。
論文 参考訳(メタデータ) (2022-12-05T06:31:31Z) - SimANS: Simple Ambiguous Negatives Sampling for Dense Text Retrieval [126.22182758461244]
評価結果によると, 正の値にランク付けされた負の値は, 一般的にはより情報的であり, 偽陰の可能性が低いことがわかった。
そこで本研究では,よりあいまいな負のサンプリングに新しいサンプリング確率分布を組み込んだ,単純な曖昧な負のサンプリング手法であるSimANSを提案する。
論文 参考訳(メタデータ) (2022-10-21T07:18:05Z) - Enhancing Graph Contrastive Learning with Node Similarity [4.60032347615771]
グラフコントラスト学習(GCL)は、自己教師型学習の代表的なフレームワークである。
GCLは、意味的に類似したノード(正のサンプル)と異種ノード(負のサンプル)とアンカーノードとの対比によってノード表現を学習する。
本稿では,全ての正のサンプルと偽陰性サンプルを含まない拡張目的を提案する。
論文 参考訳(メタデータ) (2022-08-13T22:49:20Z) - Node Representation Learning in Graph via Node-to-Neighbourhood Mutual
Information Maximization [27.701736055800314]
グラフにおける情報ノード表現の学習の鍵は、近隣からコンテキスト情報を得る方法にある。
本稿では,ノードの隠蔽表現と周辺領域の相互情報を直接的に最大化することで,自己教師付きノード表現学習戦略を提案する。
我々のフレームワークは、表現学習の質と効率を裏付ける正の選択が相反する比較的損失によって最適化されている。
論文 参考訳(メタデータ) (2022-03-23T08:21:10Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - CatGCN: Graph Convolutional Networks with Categorical Node Features [99.555850712725]
CatGCNはグラフ学習に適したノード機能である。
エンドツーエンドでCatGCNを訓練し、半教師付きノード分類でそれを実証する。
論文 参考訳(メタデータ) (2020-09-11T09:25:17Z) - SCE: Scalable Network Embedding from Sparsest Cut [20.08464038805681]
大規模ネットワーク埋め込みは、教師なしの方法で各ノードの潜在表現を学習することである。
このような対照的な学習手法の成功の鍵は、正と負のサンプルを引き出す方法である。
本稿では, 負のサンプルのみを用いた教師なしネットワーク埋め込みのためのSCEを提案する。
論文 参考訳(メタデータ) (2020-06-30T03:18:15Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。