論文の概要: Not All Negatives Are Worth Attending to: Meta-Bootstrapping Negative
Sampling Framework for Link Prediction
- arxiv url: http://arxiv.org/abs/2312.04815v2
- Date: Tue, 12 Dec 2023 03:16:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 12:51:50.963072
- Title: Not All Negatives Are Worth Attending to: Meta-Bootstrapping Negative
Sampling Framework for Link Prediction
- Title(参考訳): すべての否定が参加に値するわけではない: リンク予測のためのメタブートストラップネガティブサンプリングフレームワーク
- Authors: Yakun Wang, Binbin Hu, Shuo Yang, Meiqi Zhu, Zhiqiang Zhang, Qiyang
Zhang, Jun Zhou, Guo Ye, Huimei He
- Abstract要約: 動的負のサンプル(DNS)を持つ現在のリンク予測器は、"easy" と "hard" のサンプル間の移行現象に悩まされる。
本稿では,現在の負サンプリングベースリンク予測器を改善するための汎用プラグインとして,MeBNSフレームワークを提案する。
特に,メタラーニング支援型教員-学生GNN(MST-GNN)を精巧に考案し,教師-学生アーキテクチャ上に構築するだけでなく,「易しい」サンプルと「堅い」サンプルのマイグレーションを緩和する。
- 参考スコア(独自算出の注目度): 17.10977261460115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of graph neural networks (GNNs) encourages the rising
of link prediction, achieving promising performance with various applications.
Unfortunately, through a comprehensive analysis, we surprisingly find that
current link predictors with dynamic negative samplers (DNSs) suffer from the
migration phenomenon between "easy" and "hard" samples, which goes against the
preference of DNS of choosing "hard" negatives, thus severely hindering
capability. Towards this end, we propose the MeBNS framework, serving as a
general plugin that can potentially improve current negative sampling based
link predictors. In particular, we elaborately devise a Meta-learning Supported
Teacher-student GNN (MST-GNN) that is not only built upon teacher-student
architecture for alleviating the migration between "easy" and "hard" samples
but also equipped with a meta learning based sample re-weighting module for
helping the student GNN distinguish "hard" samples in a fine-grained manner. To
effectively guide the learning of MST-GNN, we prepare a Structure enhanced
Training Data Generator (STD-Generator) and an Uncertainty based Meta Data
Collector (UMD-Collector) for supporting the teacher and student GNN,
respectively. Extensive experiments show that the MeBNS achieves remarkable
performance across six link prediction benchmark datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の急速な開発はリンク予測の増大を促し、様々なアプリケーションで有望なパフォーマンスを達成する。
残念ながら、包括的な分析によって、動的負のサンプル(DNS)を持つ現在のリンク予測器が、"easy" と "hard" のサンプル間の移行現象に悩まされていることがわかりました。
そこで本研究では,現在の負サンプリングベースリンク予測器を改善するための汎用プラグインとして,MeBNSフレームワークを提案する。
特に,メタラーニング支援型教員-学生GNN(MST-GNN)を精巧に考案し,教師-学生アーキテクチャ上に構築した「易しい」サンプルと「堅い」サンプルの移動を緩和するだけでなく,GNNが「堅い」サンプルをきめ細かな方法で識別するのを支援するメタラーニングベースサンプル再重みモジュールも備えた。
MST-GNNの学習を効果的に指導するために,教師と学生のGNNを支援するためのStructure enhanced Training Data Generator (STD-Generator)とUncertainty based Meta Data Collector (UMD-Collector)を用意した。
大規模な実験により、MeBNSは6つのリンク予測ベンチマークデータセットで顕著な性能を達成した。
関連論文リスト
- DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - FRGNN: Mitigating the Impact of Distribution Shift on Graph Neural
Networks via Test-Time Feature Reconstruction [13.21683198528012]
分散シフトはグラフニューラルネットワーク(GNN)のテスト性能に悪影響を及ぼす可能性がある
特徴再構成を行うための汎用フレームワークFR-GNNを提案する。
特に、再構成されたノード機能は、よく訓練されたモデルをテストするために直接利用することができる。
論文 参考訳(メタデータ) (2023-08-18T02:34:37Z) - Neighborhood-based Hard Negative Mining for Sequential Recommendation [14.66576013324401]
ネガティブサンプリングは、シーケンシャルレコメンデーションモデルのトレーニングにおいて重要な役割を果たす。
本稿では, ユーザ行動に隠された構造情報を負のマイニングに活用するために, 近傍オーバーラップ(GNNO)に基づくグラフベースの負のサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-06-12T12:28:54Z) - Link Prediction with Non-Contrastive Learning [19.340519670329382]
グラフ自己教師型学習(SSL)は、ラベル付きデータなしで有用なノード表現を導出することを目的としている。
多くの最先端グラフSSL法は、正と負のサンプルの組み合わせを用いた対照的な手法である。
近年の文献では非コントラスト法が導入されており、正のサンプルのみを用いている。
論文 参考訳(メタデータ) (2022-11-25T22:30:15Z) - Meta-Aggregator: Learning to Aggregate for 1-bit Graph Neural Networks [127.32203532517953]
我々は,GNNパラメータとグラフ特徴をバイナライズするバニラ1ビットフレームワークを開発した。
軽量なアーキテクチャにもかかわらず、我々はこのバニラフレームワークがグラフトポロジを区別するのに十分な差別力に悩まされていることを観察した。
この発見は、バニラ二項化GNNの表現力を向上させるためにメタアグリゲータを考案する動機となる。
論文 参考訳(メタデータ) (2021-09-27T08:50:37Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Hop Sampling: A Simple Regularized Graph Learning for Non-Stationary
Environments [12.251253742049437]
グラフ表現学習は、ソーシャルネットワーク分析など、幅広いアプリケーションで人気を集めている。
グラフニューラルネットワーク(GNN)を現実のアプリケーションに適用することは、静止しない環境のため、依然として難しい。
ホップサンプリング(Hop Smpling)は,GNNの過剰漁を効果的に防止できる簡単な正規化手法である。
論文 参考訳(メタデータ) (2020-06-26T10:22:57Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。