論文の概要: Relation-Aware Network with Attention-Based Loss for Few-Shot Knowledge
Graph Completion
- arxiv url: http://arxiv.org/abs/2306.09519v1
- Date: Thu, 15 Jun 2023 21:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 15:49:10.786992
- Title: Relation-Aware Network with Attention-Based Loss for Few-Shot Knowledge
Graph Completion
- Title(参考訳): ナレッジグラフ完成のための注意に基づく損失を伴う関係認識ネットワーク
- Authors: Qiao Qiao, Yuepei Li, Kang Zhou, Qi Li
- Abstract要約: 現在のアプローチでは、マージンベースのランキング損失を最小限に抑えるために、参照エンティティペア毎に1つの負のサンプルをランダムに選択する。
本稿では,意図に基づくロスフレームワークを用いたリレーショナル・アウェア・ネットワークを提案する。
実験により、RANAは2つのベンチマークデータセットで最先端モデルよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 9.181270251524866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot knowledge graph completion (FKGC) task aims to predict unseen facts
of a relation with few-shot reference entity pairs. Current approaches randomly
select one negative sample for each reference entity pair to minimize a
margin-based ranking loss, which easily leads to a zero-loss problem if the
negative sample is far away from the positive sample and then out of the
margin. Moreover, the entity should have a different representation under a
different context. To tackle these issues, we propose a novel Relation-Aware
Network with Attention-Based Loss (RANA) framework. Specifically, to better
utilize the plentiful negative samples and alleviate the zero-loss issue, we
strategically select relevant negative samples and design an attention-based
loss function to further differentiate the importance of each negative sample.
The intuition is that negative samples more similar to positive samples will
contribute more to the model. Further, we design a dynamic relation-aware
entity encoder for learning a context-dependent entity representation.
Experiments demonstrate that RANA outperforms the state-of-the-art models on
two benchmark datasets.
- Abstract(参考訳): FKGC (Few-shot Knowledge Graph completion) タスクは、少数ショット参照エンティティペアとの関係の未確認事実を予測することを目的としている。
現在のアプローチでは、各参照エンティティペアに対してランダムに1つの負のサンプルを選択してマージンベースのランキング損失を最小限に抑える。
さらに、エンティティは異なるコンテキスト下で異なる表現を持つべきである。
これらの課題に対処するために, RANA(Relation-Aware Network with Attention-Based Loss)フレームワークを提案する。
具体的には, 豊富な負のサンプルを効果的に活用し, ゼロロス問題を軽減するために, 関連する負のサンプルを戦略的に選択し, 各負のサンプルの重要性をさらに区別するために注意に基づく損失関数を設計する。
直感的には、正のサンプルとより類似した負のサンプルがモデルにより多くの寄与する。
さらに、文脈依存のエンティティ表現を学習するための動的関係認識エンティティエンコーダを設計する。
実験により、RANAは2つのベンチマークデータセットで最先端モデルよりも優れていることが示された。
関連論文リスト
- Evaluating Graph Neural Networks for Link Prediction: Current Pitfalls
and New Benchmarking [66.83273589348758]
リンク予測は、グラフのエッジの一部のみに基づいて、目に見えないエッジが存在するかどうかを予測しようとする。
近年,この課題にグラフニューラルネットワーク(GNN)を活用すべく,一連の手法が導入されている。
これらの新しいモデルの有効性をよりよく評価するために、新しい多様なデータセットも作成されている。
論文 参考訳(メタデータ) (2023-06-18T01:58:59Z) - Prototypical Graph Contrastive Learning [141.30842113683775]
本稿では,有意なサンプリングバイアスを緩和するために,プロトタイプグラフコントラスト学習(PGCL)手法を提案する。
具体的には、PGCLは、グラフデータの基盤となる意味構造を、意味論的に類似したグラフを同じグループにクラスタリングすることでモデル化し、同時に、同じグラフの異なる拡張に対するクラスタリング一貫性を奨励する。
クエリのために、PGCLはさらに、プロトタイプ(クラスタセントロイド)とクエリプロトタイプの間の距離に基づいて、負のサンプルを再重み付けする。
論文 参考訳(メタデータ) (2021-06-17T16:45:31Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Relation-aware Graph Attention Model With Adaptive Self-adversarial
Training [29.240686573485718]
本稿では,不均一なマルチリレーショナルグラフにおける関係予測タスクのエンドツーエンドソリューションについて述べる。
特にパイプライン内の2つのビルディングブロック、すなわちヘテロジニアスグラフ表現学習と負のサンプリングに対処する。
パラメータフリーな負のサンプリング手法であるadaptive self-adversarial (asa) 負のサンプリングを導入する。
論文 参考訳(メタデータ) (2021-02-14T16:11:56Z) - Conditional Negative Sampling for Contrastive Learning of Visual
Representations [19.136685699971864]
難解な負の選択、あるいは現在の例に類似した選択は、より強い表現をもたらす可能性があることを示す。
それぞれの正の周りの「リング」に、負を条件付きでサンプリングする相互情報推定器のファミリーを導入する。
これらの推定器は, 偏差が大きいが, NCEよりも分散度が低いことが証明された。
論文 参考訳(メタデータ) (2020-10-05T14:17:32Z) - EqCo: Equivalent Rules for Self-supervised Contrastive Learning [81.45848885547754]
本稿では,InfoNCEをベースとしたコントラスト学習フレームワークにおいて,負のサンプル数と無関係に自己教師型学習を実現する手法を提案する。
InfoMaxの原理に着想を得て、負のペアの数に応じて、対照的な損失のマージン項を適応的にスケールする必要があることを指摘する。
論文 参考訳(メタデータ) (2020-10-05T11:39:04Z) - Structure Aware Negative Sampling in Knowledge Graphs [18.885368822313254]
対照的な学習アプローチの重要な側面は、強い負のサンプルを生成する汚職分布の選択である。
我々は,ノードのkホップ近傍から負のサンプルを選択することで,リッチグラフ構造を利用した安価な負のサンプリング戦略であるStructure Aware Negative Smpling (SANS)を提案する。
論文 参考訳(メタデータ) (2020-09-23T19:57:00Z) - SCE: Scalable Network Embedding from Sparsest Cut [20.08464038805681]
大規模ネットワーク埋め込みは、教師なしの方法で各ノードの潜在表現を学習することである。
このような対照的な学習手法の成功の鍵は、正と負のサンプルを引き出す方法である。
本稿では, 負のサンプルのみを用いた教師なしネットワーク埋め込みのためのSCEを提案する。
論文 参考訳(メタデータ) (2020-06-30T03:18:15Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。