論文の概要: GrapeQA: GRaph Augmentation and Pruning to Enhance Question-Answering
- arxiv url: http://arxiv.org/abs/2303.12320v2
- Date: Tue, 18 Apr 2023 05:11:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 17:28:14.179841
- Title: GrapeQA: GRaph Augmentation and Pruning to Enhance Question-Answering
- Title(参考訳): GrapeQA: GRaphの拡張と質問応答の強化
- Authors: Dhaval Taunk, Lakshya Khanna, Pavan Kandru, Vasudeva Varma, Charu
Sharma and Makarand Tapaswi
- Abstract要約: Commonsense Question-Awering (QA)メソッドは、事前学習された言語モデル(LM)のパワーと知識グラフ(KG)が提供する推論を組み合わせる。
典型的なアプローチでは、QAペアに関連するノードをKGから収集してワーキンググラフを作り、続いてグラフニューラルネットワーク(GNN)を用いて推論する。
We propose GrapeQA with two simple improvements on the WG: (i) Prominent Entities for Graph Augmentation identifieds relevant text chunks from the QA pair and augments the WG with corresponding latent representations from the LM, and (ii) Context-Aware Node Prunings the QA less relevant to the QA。
- 参考スコア(独自算出の注目度): 19.491275771319074
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Commonsense question-answering (QA) methods combine the power of pre-trained
Language Models (LM) with the reasoning provided by Knowledge Graphs (KG). A
typical approach collects nodes relevant to the QA pair from a KG to form a
Working Graph (WG) followed by reasoning using Graph Neural Networks(GNNs).
This faces two major challenges: (i) it is difficult to capture all the
information from the QA in the WG, and (ii) the WG contains some irrelevant
nodes from the KG. To address these, we propose GrapeQA with two simple
improvements on the WG: (i) Prominent Entities for Graph Augmentation
identifies relevant text chunks from the QA pair and augments the WG with
corresponding latent representations from the LM, and (ii) Context-Aware Node
Pruning removes nodes that are less relevant to the QA pair. We evaluate our
results on OpenBookQA, CommonsenseQA and MedQA-USMLE and see that GrapeQA shows
consistent improvements over its LM + KG predecessor (QA-GNN in particular) and
large improvements on OpenBookQA.
- Abstract(参考訳): Commonsense Question-Awering (QA)メソッドは、事前訓練された言語モデル(LM)のパワーと知識グラフ(KG)が提供する推論を組み合わせる。
典型的なアプローチでは、QAペアに関連するノードをKGから収集してワーキンググラフ(WG)を生成し、続いてグラフニューラルネットワーク(GNN)を使用する。
これは2つの大きな課題に直面します。
(i)WGにおけるQAからの情報を全て把握することは困難であり、
(ii) WG は KG から無関係なノードを含む。
これらの問題に対処するため、我々は2つの簡単な改良を加えたGrapeQAを提案する。
一 グラフ増強のための重要エンティティは、QA対から関連するテキストチャンクを特定し、かつ、LMから対応する潜在表現でWGを増強し、
(ii) Context-Aware Node Pruningは、QAペアに関連のないノードを削除する。
我々は,OpenBookQA,CommonsenseQA,MedQA-USMLEの成果を評価し,GrapeQAがLM+KG以前のもの(特にQA-GNN)よりも一貫した改善とOpenBookQAの大幅な改善を示した。
関連論文リスト
- GNN-RAG: Graph Neural Retrieval for Large Language Model Reasoning [21.057810495833063]
本稿では,LLMの言語理解能力とGNNの推論能力を組み合わせた検索強化世代(RAG)形式の新しい手法であるGNN-RAGを紹介する。
我々のGNN-RAGフレームワークでは、GNNはグラフ情報を抽出するために高密度なサブグラフ推論器として機能する。
実験により、GNN-RAGは2つの広く使用されているKGQAベンチマークで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-05-30T15:14:24Z) - Davidsonian Scene Graph: Improving Reliability in Fine-grained Evaluation for Text-to-Image Generation [64.64849950642619]
テキスト・ツー・イメージ・モデルを評価するための形式的意味論にインスパイアされた評価フレームワークを開発する。
Davidsonian Scene Graph (DSG) が依存性グラフにまとめられた原子的およびユニークな質問を生成することを示す。
また,1060個のプロンプトを含むオープンソースの評価ベンチマークDSG-1kを提案する。
論文 参考訳(メタデータ) (2023-10-27T16:20:10Z) - Exploiting Abstract Meaning Representation for Open-Domain Question
Answering [18.027908933572203]
抽象的意味表現(AMR)グラフを用いて、複雑な意味情報を理解するモデルを支援する。
また,Natural Questions (NQ) と TriviaQA (TQ) の結果から,GST法が性能を著しく向上することを示した。
論文 参考訳(メタデータ) (2023-05-26T16:00:16Z) - Dynamic Relevance Graph Network for Knowledge-Aware Question Answering [22.06211725256875]
本研究は,外部知識の源泉となるコモンセンス質問回答の学習と推論の課題について考察する。
我々はDynamic Relevance Graph Network (DRGN)と呼ばれる新しいグラフニューラルネットワークアーキテクチャを提案する。
DRGNは、質問に基づいて与えられたKGサブグラフで動作し、エンティティに回答し、ノード間の関連スコアを使用して新しいエッジを確立する。
論文 参考訳(メタデータ) (2022-09-20T18:52:05Z) - Question-Answer Sentence Graph for Joint Modeling Answer Selection [122.29142965960138]
我々は,質問文,質問文,回答文のペア間のスコアを計算するための最先端(SOTA)モデルを訓練し,統合する。
オンライン推論は、目に見えないクエリのAS2タスクを解決するために実行される。
論文 参考訳(メタデータ) (2022-02-16T05:59:53Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。