論文の概要: Negative Metric Learning for Graphs
- arxiv url: http://arxiv.org/abs/2505.10307v1
- Date: Thu, 15 May 2025 13:53:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.340176
- Title: Negative Metric Learning for Graphs
- Title(参考訳): グラフのための負のメトリック学習
- Authors: Yiyang Zhao, Chengpei Wu, Lilin Zhang, Ning Yang,
- Abstract要約: グラフ対照的学習(GCL)は、しばしば偽陰性に悩まされ、下流タスクのパフォーマンスが低下する。
NML(Negative Metric Learning)拡張GCL(NML-GCL)を提案する。
NML-GCLは学習可能な負の計量ネットワーク(NMN)を用いて負の計量空間を構築する。
- 参考スコア(独自算出の注目度): 3.67824041145419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph contrastive learning (GCL) often suffers from false negatives, which degrades the performance on downstream tasks. The existing methods addressing the false negative issue usually rely on human prior knowledge, still leading GCL to suboptimal results. In this paper, we propose a novel Negative Metric Learning (NML) enhanced GCL (NML-GCL). NML-GCL employs a learnable Negative Metric Network (NMN) to build a negative metric space, in which false negatives can be distinguished better from true negatives based on their distance to anchor node. To overcome the lack of explicit supervision signals for NML, we propose a joint training scheme with bi-level optimization objective, which implicitly utilizes the self-supervision signals to iteratively optimize the encoder and the negative metric network. The solid theoretical analysis and the extensive experiments conducted on widely used benchmarks verify the superiority of the proposed method.
- Abstract(参考訳): グラフ対照的学習(GCL)は、しばしば偽陰性に悩まされ、下流タスクのパフォーマンスが低下する。
偽陰性問題に対処する既存の手法は、通常人間の事前知識に依存しており、GCLは依然として準最適結果へと導かれる。
本稿では,NML(Negative Metric Learning)拡張GCL(NML-GCL)を提案する。
NML-GCLは学習可能な負の計量ネットワーク(NMN)を用いて負の計量空間を構築する。
NMLの明示的な監督信号の欠如を克服するため,両レベル最適化目標を用いた共同学習手法を提案し,エンコーダと負のメトリックネットワークを暗黙的に最適化する。
提案手法の優位性を検証するため, 理論解析と広範に用いられているベンチマーク実験を行った。
関連論文リスト
- InfoNCE is a Free Lunch for Semantically guided Graph Contrastive Learning [60.61079931266331]
グラフコントラスト学習(GCL)は、グラフ基盤モデルやLLMの研究の急増において、グラフのエンハンサーとして重要な役割を担っている。
従来のGCLでは、自己監督タスクの定義に拡張を使用し、強化ペアを正のサンプルとして、その他のものを負のサンプルとして扱う。
本稿では,GCLは基本的に,自己教師型タスクの定義を意味的に導くべき,肯定的非ラベル付き学習問題である,と論じる。
論文 参考訳(メタデータ) (2025-05-07T05:27:36Z) - Does GCL Need a Large Number of Negative Samples? Enhancing Graph Contrastive Learning with Effective and Efficient Negative Sampling [17.51838571216239]
Graph Contrastive Learningは、低次元グラフ表現を自己教師する。
GCLの有効性は多数の負の対に依存するという意見が一致している。
有効かつ効率的な負のサンプルであるE2Negを用いて,GCLと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T03:09:31Z) - Fast Graph Sharpness-Aware Minimization for Enhancing and Accelerating Few-Shot Node Classification [53.727688136434345]
グラフニューラルネットワーク(GNN)はノード分類において優れた性能を示している。
高速グラフシャープネス認識最小化(FGSAM)を提案する。
提案アルゴリズムは,FSNCタスクにおいて,計算コストの低い標準SAMよりも優れる。
論文 参考訳(メタデータ) (2024-10-22T09:33:29Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - Pseudo Contrastive Learning for Graph-based Semi-supervised Learning [67.37572762925836]
Pseudo Labelingは、グラフニューラルネットワーク(GNN)の性能向上に使用されるテクニックである。
我々はPseudo Contrastive Learning(PCL)と呼ばれるGNNのための一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-19T10:34:08Z) - Positive-Negative Equal Contrastive Loss for Semantic Segmentation [8.664491798389662]
従来の作業では、グローバルコンテキストを効果的に抽出し集約するために、プラグアンドプレイモジュールと構造的損失を設計するのが一般的だった。
そこで我々は, 正負の負の正の負の負の正の負の正の負の正の負の負の負の正の負の負の正の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の
総合的な実験を行い、2つのベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-04T13:51:29Z) - Rethinking Collaborative Metric Learning: Toward an Efficient
Alternative without Negative Sampling [156.7248383178991]
コラボレーティブ・メトリック・ラーニング(CML)パラダイムはレコメンデーション・システム(RS)分野に広く関心を集めている。
負のサンプリングが一般化誤差のバイアス付き推定に繋がることがわかった。
そこで我々は,SFCML (textitSampling-Free Collaborative Metric Learning) という名前のCMLに対して,負のサンプリングを伴わない効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T08:50:22Z) - Provable Stochastic Optimization for Global Contrastive Learning: Small
Batch Does Not Harm Performance [53.49803579981569]
各正の対と全ての負の対をアンカーポイントで対比する、コントラスト学習のグローバルな目的を考える。
SimCLRのような既存のメソッドは、十分な結果を得るために大きなバッチサイズを必要とする。
本稿では,SogCLRという表現のグローバルコントラスト学習を解くためのメモリ効率の最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-24T22:16:53Z) - Debiased Graph Contrastive Learning [27.560217866753938]
本稿では,各負のサンプルが真かどうかの確率を推定する,新規で効果的な手法を提案する。
Debiased Graph Contrastive Learning (DGCL)は、いくつかのベンチマークにおいて、教師なしの最先端結果よりも優れているか、あるいは一致している。
論文 参考訳(メタデータ) (2021-10-05T13:15:59Z) - Relation-aware Graph Attention Model With Adaptive Self-adversarial
Training [29.240686573485718]
本稿では,不均一なマルチリレーショナルグラフにおける関係予測タスクのエンドツーエンドソリューションについて述べる。
特にパイプライン内の2つのビルディングブロック、すなわちヘテロジニアスグラフ表現学習と負のサンプリングに対処する。
パラメータフリーな負のサンプリング手法であるadaptive self-adversarial (asa) 負のサンプリングを導入する。
論文 参考訳(メタデータ) (2021-02-14T16:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。