論文の概要: Select and Augment: Enhanced Dense Retrieval Knowledge Graph
Augmentation
- arxiv url: http://arxiv.org/abs/2307.15776v2
- Date: Wed, 25 Oct 2023 10:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 20:11:51.512306
- Title: Select and Augment: Enhanced Dense Retrieval Knowledge Graph
Augmentation
- Title(参考訳): Select and Augment: 強化されたDense Retrieval Knowledge Graph Augmentation
- Authors: Micheal Abaho, Yousef H. Alfaifi
- Abstract要約: 本稿では,KGエンティティに関連するテキスト記述の集合を共同で選択するフレームワークを提案する。
Link Predictionの実験結果は平均相反ランク(MRR)とHits@10スコアの5.5%と3.5%の増加を示している。
- 参考スコア(独自算出の注目度): 0.59829224684009
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Injecting textual information into knowledge graph (KG) entity
representations has been a worthwhile expedition in terms of improving
performance in KG oriented tasks within the NLP community. External knowledge
often adopted to enhance KG embeddings ranges from semantically rich lexical
dependency parsed features to a set of relevant key words to entire text
descriptions supplied from an external corpus such as wikipedia and many more.
Despite the gains this innovation (Text-enhanced KG embeddings) has made, the
proposal in this work suggests that it can be improved even further. Instead of
using a single text description (which would not sufficiently represent an
entity because of the inherent lexical ambiguity of text), we propose a
multi-task framework that jointly selects a set of text descriptions relevant
to KG entities as well as align or augment KG embeddings with text
descriptions. Different from prior work that plugs formal entity descriptions
declared in knowledge bases, this framework leverages a retriever model to
selectively identify richer or highly relevant text descriptions to use in
augmenting entities. Furthermore, the framework treats the number of
descriptions to use in augmentation process as a parameter, which allows the
flexibility of enumerating across several numbers before identifying an
appropriate number. Experiment results for Link Prediction demonstrate a 5.5%
and 3.5% percentage increase in the Mean Reciprocal Rank (MRR) and Hits@10
scores respectively, in comparison to text-enhanced knowledge graph
augmentation methods using traditional CNNs.
- Abstract(参考訳): 知識グラフ(KG)の実体表現にテキスト情報を注入することは、NLPコミュニティにおけるKG指向タスクのパフォーマンス向上の観点から、貴重な調査である。
KG埋め込みを強化するための外部知識は、意味的にリッチな語彙依存解析機能から、関連するキーワードのセットから、wikipediaなどの外部コーパスから提供されるテキスト記述全体まで多岐にわたる。
この革新(テキストエンハンス付kg埋め込み)の成果にもかかわらず、本研究の提案はさらに改善できることを示唆している。
テキストの語彙的曖昧さのため、一つのテキスト記述を使う代わりに、kgエンティティに関連する一連のテキスト記述を共同で選択し、kg埋め込みとテキスト記述を調整または拡張するマルチタスクフレームワークを提案する。
知識ベースで宣言された形式的なエンティティ記述をプラグインする以前の作業とは異なり、このフレームワークは検索モデルを活用して、エンティティの強化に使用するよりリッチで高関連性の高いテキスト記述を選択的に識別する。
さらに、拡張プロセスで使用する記述の数をパラメータとして扱うことにより、適切な数を特定する前に複数の数値を列挙する柔軟性が実現される。
Link Predictionの実験結果は、従来のCNNを用いたテキスト強化知識グラフ拡張法と比較して、平均相反ランク(MRR)とHits@10スコアの5.5%と3.5%の増加を示した。
関連論文リスト
- Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Text Classification Based on Knowledge Graphs and Improved Attention
Mechanism [12.008192698720947]
モデルは文字レベルと単語レベルの両方で動作し、概念を統合することで理解を深める。
その性能はAGNews、Ohsumed、TagMyNewsなどのデータセットで実証されており、それぞれ75.1%、58.7%、68.5%の精度が達成されている。
論文 参考訳(メタデータ) (2024-01-07T22:20:55Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Text-To-KG Alignment: Comparing Current Methods on Classification Tasks [2.191505742658975]
知識グラフ(KG)は、事実情報の密集した構造化された表現を提供する。
最近の研究は、追加のコンテキストとしてKGから情報を取得するパイプラインモデルの作成に重点を置いている。
現在のメソッドが、アライメントされたサブグラフがクエリに完全に関連しているシナリオとどのように比較されているかは分かっていない。
論文 参考訳(メタデータ) (2023-06-05T13:45:45Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Knowledge Graph Based Synthetic Corpus Generation for Knowledge-Enhanced
Language Model Pre-training [22.534866015730664]
我々は全英Wikidata KGを言語化した。
Wikidataのような包括的で百科事典的なKGを言語化することで、構造化されたKGと自然言語コーパスを統合することができることを示す。
論文 参考訳(メタデータ) (2020-10-23T22:14:50Z) - CokeBERT: Contextual Knowledge Selection and Embedding towards Enhanced
Pre-Trained Language Models [103.18329049830152]
我々は,コンテキスト知識を動的に選択し,テキストコンテキストに応じて知識コンテキストを埋め込む,Cokeという新しいフレームワークを提案する。
実験の結果、コークは知識駆動型NLPタスクにおいて、様々なベースラインを上回ります。
コークは、テキスト関連の知識のセマンティクスを従来のPLMよりも解釈可能な形で記述することができる。
論文 参考訳(メタデータ) (2020-09-29T12:29:04Z) - Improving Conversational Recommender Systems via Knowledge Graph based
Semantic Fusion [77.21442487537139]
対話型レコメンデータシステム(CRS)は,対話型対話を通じて高品質なアイテムをユーザに推薦することを目的としている。
まず、会話データ自体にユーザの好みを正確に理解するための十分なコンテキスト情報がない。
第二に、自然言語表現とアイテムレベルのユーザ嗜好の間には意味的なギャップがある。
論文 参考訳(メタデータ) (2020-07-08T11:14:23Z) - Relational Learning Analysis of Social Politics using Knowledge Graph
Embedding [11.978556412301975]
本稿では,新しい信頼性ドメインベースのKG埋め込みフレームワークを提案する。
ヘテロジニアスリソースから得られたデータの融合を、ドメインによって表現された正式なKG表現にキャプチャする。
このフレームワークは、データ品質と信頼性を保証するための信頼性モジュールも具体化している。
論文 参考訳(メタデータ) (2020-06-02T14:10:28Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。