論文の概要: GETT-QA: Graph Embedding based T2T Transformer for Knowledge Graph
Question Answering
- arxiv url: http://arxiv.org/abs/2303.13284v3
- Date: Tue, 28 Mar 2023 09:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 11:24:01.489618
- Title: GETT-QA: Graph Embedding based T2T Transformer for Knowledge Graph
Question Answering
- Title(参考訳): GETT-QA:知識グラフ質問応答のためのグラフ埋め込みベースのT2T変換器
- Authors: Debayan Banerjee, Pranav Ajit Nair, Ricardo Usbeck, Chris Biemann
- Abstract要約: 本稿では GETT-QA というエンド・ツー・エンドの知識グラフ質問応答システムを提案する。
GETT-QAは、人気のあるテキストからテキストまでの事前訓練言語モデルであるT5を使用している。
その結果,T5 は損失関数の変化を伴わずに絡み合った KG 埋め込みを学習でき,KGQA 性能が向上することがわかった。
- 参考スコア(独自算出の注目度): 20.734859343886843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we present an end-to-end Knowledge Graph Question Answering
(KGQA) system named GETT-QA. GETT-QA uses T5, a popular text-to-text
pre-trained language model. The model takes a question in natural language as
input and produces a simpler form of the intended SPARQL query. In the simpler
form, the model does not directly produce entity and relation IDs. Instead, it
produces corresponding entity and relation labels. The labels are grounded to
KG entity and relation IDs in a subsequent step. To further improve the
results, we instruct the model to produce a truncated version of the KG
embedding for each entity. The truncated KG embedding enables a finer search
for disambiguation purposes. We find that T5 is able to learn the truncated KG
embeddings without any change of loss function, improving KGQA performance. As
a result, we report strong results for LC-QuAD 2.0 and SimpleQuestions-Wikidata
datasets on end-to-end KGQA over Wikidata.
- Abstract(参考訳): 本稿では, GETT-QA というエンドツーエンドの知識グラフ質問応答システムを提案する。
GETT-QAは、人気のあるテキストからテキストまでの事前訓練言語モデルであるT5を使用している。
このモデルは自然言語を入力とし、意図したSPARQLクエリのよりシンプルな形式を生成する。
単純な形式では、モデルは直接エンティティと関係IDを生成しない。
代わりに、対応するエンティティと関係ラベルを生成する。
ラベルは、その後のステップでkgエンティティとリレーションシップidに接地される。
結果をさらに改善するため、各エンティティに対してKG埋め込みの切り離されたバージョンを作成するようモデルに指示する。
切断されたkg埋め込みは、曖昧さの目的をより細かく探索することができる。
その結果,T5 は損失関数の変化を伴わずに絡み合った KG 埋め込みを学習でき,KGQA 性能が向上することがわかった。
その結果, LC-QuAD 2.0 と SimpleQuestions-Wikidata のデータセットを Wikidata 上の エンドツーエンド KGQA 上に構築した。
関連論文リスト
- Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Retrieval-Augmented Language Model for Extreme Multi-Label Knowledge Graph Link Prediction [2.6749568255705656]
大規模言語モデル(LLM)における開放的調査のための外挿は2つの重要な問題に遭遇する。
既存の作業は、知識グラフからの情報により、より小さな言語モデルの入力を増大させることによって、この問題に対処しようとするものである。
我々は,モデルが複数の応答で外挿を行うことを可能にするために,新たなタスク,極端なマルチラベルKGリンク予測タスクを提案する。
論文 参考訳(メタデータ) (2024-05-21T10:10:56Z) - Answer Candidate Type Selection: Text-to-Text Language Model for Closed
Book Question Answering Meets Knowledge Graphs [62.20354845651949]
本稿では,この問題を解決するために,事前学習されたテキスト間QAシステム上で機能する新しいアプローチを提案する。
提案手法は,Wikidataの"instance_of"プロパティの型に基づいて,生成した候補のフィルタリングと再ランク付けを行う。
論文 参考訳(メタデータ) (2023-10-10T20:49:43Z) - Relation-Aware Language-Graph Transformer for Question Answering [21.244992938222246]
本稿では,言語とグラフを関連づける質問応答変換器(QAT, Question Answering Transformer)を提案する。
具体的には、QATはメタパストークンを構築し、多様な構造的および意味的関係に基づいて関係中心の埋め込みを学習する。
我々は,CommonsenseQA や OpenBookQA などの常識質問応答データセットと,医療質問応答データセット MedQA-USMLE について,QAT の有効性を検証する。
論文 参考訳(メタデータ) (2022-12-02T05:10:10Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - KnowGL: Knowledge Generation and Linking from Text [13.407149206621828]
我々は,テキストをABoxアサーションの集合として表される構造化された関係データに変換するツールであるKnowGLを提案する。
本稿では,BARTなどの事前学習されたシーケンス・ツー・シーケンス言語モデルを活用することで,シーケンス生成タスクとしてこの問題に対処する。
ツールの機能を示すために,入力テキストから抽出したセマンティックデータをナビゲートするUIウィジェットからなるWebアプリケーションを構築した。
論文 参考訳(メタデータ) (2022-10-25T12:12:36Z) - HiSMatch: Historical Structure Matching based Temporal Knowledge Graph
Reasoning [59.38797474903334]
本稿では,textbfHistorical textbfStructure textbfMatching (textbfHiSMatch)モデルを提案する。
クエリと候補エンティティの履歴構造に含まれる意味情報をキャプチャするために、2つの構造エンコーダを適用する。
6つのベンチマークデータセットの実験では、提案されたHiSMatchモデルが、最先端のベースラインと比較して最大5.6%のパフォーマンス改善を達成している。
論文 参考訳(メタデータ) (2022-10-18T09:39:26Z) - Entity Type Prediction Leveraging Graph Walks and Entity Descriptions [4.147346416230273]
textitGRANDは、RDF2vecの異なるグラフウォーク戦略とテキストエンティティ記述を利用したエンティティ型付けの新しいアプローチである。
提案手法は,細粒度クラスと粗粒度クラスの両方において,KGにおけるエンティティ型付けのためのベンチマークデータセットDBpediaとFIGERのベースラインアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-07-28T13:56:55Z) - Modern Baselines for SPARQL Semantic Parsing [28.088516108293653]
我々は、自然言語の質問からSPARQLクエリを生成するタスクに焦点を当て、知識グラフ上で実行できる。
T5 は特別な入力トークン化を必要とするが,LC-QuAD 1.0 および LC-QuAD 2.0 データセット上でのアートパフォーマンスの状態を生成する。
この方法では、入力の一部を出力クエリにコピーする必要がある問題に対するセマンティック解析が可能となり、KGセマンティック解析における新しいパラダイムが実現される。
論文 参考訳(メタデータ) (2022-04-27T09:26:59Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。