論文の概要: Text-To-KG Alignment: Comparing Current Methods on Classification Tasks
- arxiv url: http://arxiv.org/abs/2306.02871v1
- Date: Mon, 5 Jun 2023 13:45:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 14:52:31.236098
- Title: Text-To-KG Alignment: Comparing Current Methods on Classification Tasks
- Title(参考訳): テキストとKGのアライメント: 分類課題における現在の方法の比較
- Authors: Sondre Wold and Lilja {\O}vrelid and Erik Velldal
- Abstract要約: 知識グラフ(KG)は、事実情報の密集した構造化された表現を提供する。
最近の研究は、追加のコンテキストとしてKGから情報を取得するパイプラインモデルの作成に重点を置いている。
現在のメソッドが、アライメントされたサブグラフがクエリに完全に関連しているシナリオとどのように比較されているかは分かっていない。
- 参考スコア(独自算出の注目度): 2.191505742658975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In contrast to large text corpora, knowledge graphs (KG) provide dense and
structured representations of factual information. This makes them attractive
for systems that supplement or ground the knowledge found in pre-trained
language models with an external knowledge source. This has especially been the
case for classification tasks, where recent work has focused on creating
pipeline models that retrieve information from KGs like ConceptNet as
additional context. Many of these models consist of multiple components, and
although they differ in the number and nature of these parts, they all have in
common that for some given text query, they attempt to identify and retrieve a
relevant subgraph from the KG. Due to the noise and idiosyncrasies often found
in KGs, it is not known how current methods compare to a scenario where the
aligned subgraph is completely relevant to the query. In this work, we try to
bridge this knowledge gap by reviewing current approaches to text-to-KG
alignment and evaluating them on two datasets where manually created graphs are
available, providing insights into the effectiveness of current methods.
- Abstract(参考訳): 大きなテキストコーパスとは対照的に、知識グラフ(KG)は事実情報の密度と構造化された表現を提供する。
これにより、トレーニング済みの言語モデルで見つかった知識を、外部の知識ソースで補ったり基礎づけたりするシステムにとって魅力的なものとなる。
これは特に分類タスクの場合であり、最近の作業では、追加のコンテキストとしてconceptnetのようなkgから情報を取得するパイプラインモデルの作成に焦点が当てられている。
これらのモデルの多くは複数のコンポーネントで構成されており、それらのパーツの数や性質は異なるが、ある特定のテキストクエリでは、kgから関連するサブグラフを識別し、取得しようとするという共通点がある。
KGsでよく見られるノイズや慣用性のため、現在の手法がクエリと完全に関係しているシナリオとどのように比較されているかは分かっていない。
本研究は,手作業によるグラフ作成が可能な2つのデータセット上で,テキストとKGのアライメントに対する現在のアプローチをレビューし,評価することで,この知識ギャップを埋めようとしている。
関連論文リスト
- iText2KG: Incremental Knowledge Graphs Construction Using Large Language Models [0.7165255458140439]
iText2KGは、後処理なしで漸進的にトピックに依存しない知識グラフを構築する方法である。
提案手法は,3つのシナリオにまたがるベースライン手法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-05T06:49:14Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Universal Preprocessing Operators for Embedding Knowledge Graphs with
Literals [2.211868306499727]
知識グラフ埋め込みは知識グラフ(KG)におけるエンティティの密度数値表現である
本稿では,KGを数値情報,時間情報,テキスト情報,画像情報などのリテラルで変換できる汎用プリプロセッシング演算子を提案する。
3つの異なる埋め込み法によるkgbenchデータセットの結果は有望な結果を示した。
論文 参考訳(メタデータ) (2023-09-06T14:08:46Z) - Knowledge Graph-Augmented Language Models for Knowledge-Grounded
Dialogue Generation [58.65698688443091]
我々は、知識グラフ(KGs)を用いた文脈関連および知識基底対話を生成するためのフレームワークであるSUbgraph Retrieval-augmented GEneration (SURGE)を提案する。
我々のフレームワークはまずKGから関連するサブグラフを取得し、その後、検索したサブグラフによって条件付けられた単語の埋め込みを摂動することで、事実間の一貫性を強制する。
我々は,OpendialKGとKOMODISデータセットのSURGEフレームワークを検証し,KGの知識を忠実に反映した高品質な対話を生成することを示す。
論文 参考訳(メタデータ) (2023-05-30T08:36:45Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - KELM: Knowledge Enhanced Pre-Trained Language Representations with
Message Passing on Hierarchical Relational Graphs [26.557447199727758]
本稿では,微調整プロセスに基づく知識認識型言語モデルフレームワークを提案する。
我々のモデルは、KGからの世界知識をBERTのような既存の言語モデルに効率的に組み込むことができる。
論文 参考訳(メタデータ) (2021-09-09T12:39:17Z) - Few-shot Knowledge Graph-to-Text Generation with Pretrained Language
Models [42.38563175680914]
本稿では,知識グラフ(KG)の事実を記述した自然言語テキストの自動生成方法について検討する。
数ショットの設定を考えると、言語理解と生成において事前学習された言語モデル(PLM)の優れた能力を利用する。
論文 参考訳(メタデータ) (2021-06-03T06:48:00Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Entity Type Prediction in Knowledge Graphs using Embeddings [2.7528170226206443]
オープンナレッジグラフ(DBpedia、Wikidata、YAGOなど)は、データマイニングと情報検索の分野における多様なアプリケーションのバックボーンとして認識されている。
これらのKGのほとんどは、スナップショットからの自動情報抽出またはユーザーが提供する情報蓄積によって作成されるか、ウィキペディアを用いて作成される。
これらのKGの型情報は、しばしばうるさい、不完全、不正確である。
KG埋め込みを用いたエンティティタイピングのためのマルチラベル分類手法を提案する。
論文 参考訳(メタデータ) (2020-04-28T17:57:08Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。