論文の概要: Diversified and Adaptive Negative Sampling on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2410.07592v1
- Date: Thu, 10 Oct 2024 03:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 16:06:31.031604
- Title: Diversified and Adaptive Negative Sampling on Knowledge Graphs
- Title(参考訳): 知識グラフの多様化と適応的負サンプリング
- Authors: Ran Liu, Zhongzhou Liu, Xiaoli Li, Hao Wu, Yuan Fang,
- Abstract要約: 本稿では,知識グラフ上での多変量および適応負値サンプリングDANS(Diversified and Adaptive Negative Smpling DANS)手法を提案する。
DANSは2つの経路を通じてより多様な負の三重項を生成する双方向ジェネレータと、よりきめ細かい例を生成する適応機構を備えている。
一方,2方向ジェネレータはより多様な負の例で全体の情報量を増加させる一方,適応機構はよりきめ細かなサンプリングによって個々の情報量を増加させる。
- 参考スコア(独自算出の注目度): 11.139278325106272
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In knowledge graph embedding, aside from positive triplets (ie: facts in the knowledge graph), the negative triplets used for training also have a direct influence on the model performance. In reality, since knowledge graphs are sparse and incomplete, negative triplets often lack explicit labels, and thus they are often obtained from various sampling strategies (eg: randomly replacing an entity in a positive triplet). An ideal sampled negative triplet should be informative enough to help the model train better. However, existing methods often ignore diversity and adaptiveness in their sampling process, which harms the informativeness of negative triplets. As such, we propose a generative adversarial approach called Diversified and Adaptive Negative Sampling DANS on knowledge graphs. DANS is equipped with a two-way generator that generates more diverse negative triplets through two pathways, and an adaptive mechanism that produces more fine-grained examples by localizing the global generator for different entities and relations. On the one hand, the two-way generator increase the overall informativeness with more diverse negative examples; on the other hand, the adaptive mechanism increases the individual sample-wise informativeness with more fine-grained sampling. Finally, we evaluate the performance of DANS on three benchmark knowledge graphs to demonstrate its effectiveness through quantitative and qualitative experiments.
- Abstract(参考訳): 知識グラフの埋め込みでは、正の三つ子(すなわち知識グラフの事実)を除いて、トレーニングに使用される負の三つ子もモデルのパフォーマンスに直接的な影響を与える。
実際、知識グラフはスパースで不完全であるため、負の三重項は明示的なラベルを欠くことが多く、様々なサンプリング戦略(例えば正の三重項のエンティティをランダムに置き換える)から得られることが多い。
理想的なサンプルの正三重項は、モデルがより良く訓練するのに十分な情報を与えるべきである。
しかし、既存の手法はサンプリング過程における多様性や適応性を無視することが多く、これは負の三重項の情報を損なう。
そこで本研究では,知識グラフ上での多変量化および適応負値サンプリングDANSと呼ばれる生成逆アプローチを提案する。
DANSは、2つの経路を通してより多様な負の三重項を生成する双方向ジェネレータと、異なるエンティティと関係のためにグローバルジェネレータをローカライズすることでよりきめ細かい例を生成する適応メカニズムを備えている。
一方,2方向ジェネレータはより多様な負の例で全体の情報量を増加させる一方,適応機構はよりきめ細かなサンプリングによって個々の情報量を増加させる。
最後に,3つのベンチマーク知識グラフ上でのDANSの性能を評価し,定量的および定性的な実験によりその効果を実証する。
関連論文リスト
- Globally Correlation-Aware Hard Negative Generation [10.01484541395438]
我々はGCA-HNG(Globally correlation-Aware Hard Negative Generation)フレームワークを提案する。
GCA-HNGはまず、グローバルな視点からサンプル相関を学習し、これらの相関を利用して、硬度適応的で多様な負を生成する。
実験の結果,提案したGCA-HNGは4つの画像検索ベンチマークデータセットの関連手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-20T09:19:12Z) - From Overfitting to Robustness: Quantity, Quality, and Variety Oriented Negative Sample Selection in Graph Contrastive Learning [38.87932592059369]
グラフコントラスト学習(GCL)は、ノードの埋め込みを学習する正負の学習と対比することを目的としている。
ノード分類下流タスクにおける有意義な埋め込み学習において, 正のサンプルと比較して, 負のサンプルの変化, 量, 品質が重要な役割を担っている。
本研究では, 負のサンプルの品質, バリエーション, 量について包括的に検討し, 新たな累積サンプル選択法を提案する。
論文 参考訳(メタデータ) (2024-06-21T10:47:26Z) - Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Entity Aware Negative Sampling with Auxiliary Loss of False Negative
Prediction for Knowledge Graph Embedding [0.0]
我々はEANS(Entity Aware Negative Smpling)と呼ばれる新しい手法を提案する。
EANSは、整列した実体指数空間にガウス分布を採用することにより、正に類似した負の実体をサンプリングすることができる。
提案手法は, 正のサンプルサイズによらず高品質な負のサンプルを生成し, 偽の負のサンプルの影響を効果的に軽減することができる。
論文 参考訳(メタデータ) (2022-10-12T14:27:51Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Understanding Negative Sampling in Graph Representation Learning [87.35038268508414]
最適化目標と結果のばらつきを決定するためには, 正のサンプリングと同様に負のサンプリングが重要であることを示す。
我々は,自己コントラスト近似による正の分布を近似し,メトロポリス・ハスティングスによる負のサンプリングを高速化するメトロポリス・ハスティングス(MCNS)を提案する。
提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む,下流グラフ学習タスクをカバーする5つのデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-05-20T06:25:21Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。