論文の概要: Toward Subgraph Guided Knowledge Graph Question Generation with Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2004.06015v3
- Date: Sat, 12 Mar 2022 05:25:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 00:04:05.153596
- Title: Toward Subgraph Guided Knowledge Graph Question Generation with Graph
Neural Networks
- Title(参考訳): グラフニューラルネットワークを用いた知識グラフのサブグラフ生成に向けて
- Authors: Yu Chen, Lingfei Wu and Mohammed J. Zaki
- Abstract要約: 知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
提案モデルでは,2つのQGベンチマークにおいて,既存手法よりも有意な差で,新たな最先端スコアを達成している。
- 参考スコア(独自算出の注目度): 53.58077686470096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph (KG) question generation (QG) aims to generate natural
language questions from KGs and target answers. Previous works mostly focus on
a simple setting which is to generate questions from a single KG triple. In
this work, we focus on a more realistic setting where we aim to generate
questions from a KG subgraph and target answers. In addition, most of previous
works built on either RNN-based or Transformer-based models to encode a
linearized KG sugraph, which totally discards the explicit structure
information of a KG subgraph. To address this issue, we propose to apply a
bidirectional Graph2Seq model to encode the KG subgraph. Furthermore, we
enhance our RNN decoder with node-level copying mechanism to allow directly
copying node attributes from the KG subgraph to the output question. Both
automatic and human evaluation results demonstrate that our model achieves new
state-of-the-art scores, outperforming existing methods by a significant margin
on two QG benchmarks. Experimental results also show that our QG model can
consistently benefit the Question Answering (QA) task as a mean of data
augmentation.
- Abstract(参考訳): 知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
以前の作品は、主に1kgのトリプルから質問を生成する単純な設定に焦点を当てていた。
本研究では,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
さらに、RNNベースのモデルやトランスフォーマーベースのモデルを使って、KGサブグラフの明示的な構造情報を完全に破棄する線形化されたKGサーグラフを符号化した以前の作品のほとんども、その一部である。
この問題に対処するために、KGサブグラフの符号化に双方向のGraph2Seqモデルを適用することを提案する。
さらに、ノードレベルのコピー機構によりRNNデコーダを強化し、ノード属性を直接KGサブグラフから出力質問にコピーできるようにする。
自動評価と人間評価の結果から,本モデルは既存の手法を2つのqgベンチマークにおいて有意なマージンで上回った。
実験結果から,我々のQGモデルは,データ拡張の手段として,質問応答(QA)タスクに一貫した効果が得られた。
関連論文リスト
- GNN-RAG: Graph Neural Retrieval for Large Language Model Reasoning [21.057810495833063]
本稿では,LLMの言語理解能力とGNNの推論能力を組み合わせた検索強化世代(RAG)形式の新しい手法であるGNN-RAGを紹介する。
我々のGNN-RAGフレームワークでは、GNNはグラフ情報を抽出するために高密度なサブグラフ推論器として機能する。
実験により、GNN-RAGは2つの広く使用されているKGQAベンチマークで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-05-30T15:14:24Z) - Task-Oriented GNNs Training on Large Knowledge Graphs for Accurate and Efficient Modeling [5.460112864687281]
本稿では,大規模知識グラフ(KG)を用いたタスク指向HGNN学習におけるTOSG抽出の自動化手法であるKG-TOSAを提案する。
KG-TOSAは、最新のHGNN手法により、トレーニング時間とメモリ使用量を最大70%削減し、精度や推論時間などのモデル性能を向上させる。
論文 参考訳(メタデータ) (2024-03-09T01:17:26Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - GrapeQA: GRaph Augmentation and Pruning to Enhance Question-Answering [19.491275771319074]
Commonsense Question-Awering (QA)メソッドは、事前学習された言語モデル(LM)のパワーと知識グラフ(KG)が提供する推論を組み合わせる。
典型的なアプローチでは、QAペアに関連するノードをKGから収集してワーキンググラフを作り、続いてグラフニューラルネットワーク(GNN)を用いて推論する。
We propose GrapeQA with two simple improvements on the WG: (i) Prominent Entities for Graph Augmentation identifieds relevant text chunks from the QA pair and augments the WG with corresponding latent representations from the LM, and (ii) Context-Aware Node Prunings the QA less relevant to the QA。
論文 参考訳(メタデータ) (2023-03-22T05:35:29Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - Dynamic Relevance Graph Network for Knowledge-Aware Question Answering [22.06211725256875]
本研究は,外部知識の源泉となるコモンセンス質問回答の学習と推論の課題について考察する。
我々はDynamic Relevance Graph Network (DRGN)と呼ばれる新しいグラフニューラルネットワークアーキテクチャを提案する。
DRGNは、質問に基づいて与えられたKGサブグラフで動作し、エンティティに回答し、ノード間の関連スコアを使用して新しいエッジを確立する。
論文 参考訳(メタデータ) (2022-09-20T18:52:05Z) - Graph-augmented Learning to Rank for Querying Large-scale Knowledge
Graph [34.774049199809426]
情報検索に基づく知識グラフ質問応答(KGQA)は,大規模知識グラフから回答を取得して回答することを目的としている。
まず,検索したKSGを,新しいサブグラフ分割アルゴリズムを用いて,より小さなKSGに分割する。
次に、ランク付けモデルから上位のKSGを選択するためのグラフ拡張学習を提案する。
論文 参考訳(メタデータ) (2021-11-20T08:27:37Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z) - Knowledge-Enhanced Personalized Review Generation with Capsule Graph
Neural Network [81.81662828017517]
カプセルグラフニューラルネットワークを用いた知識強調型PRGモデル(Caps-GNN)を提案する。
我々の生成プロセスは、アスペクトシーケンス生成と文生成という2つの大きなステップを含む。
組み込まれた知識グラフは、アスペクトレベルとワードレベルの両方でユーザの好みを高めることができる。
論文 参考訳(メタデータ) (2020-10-04T03:54:40Z) - Semantic Graphs for Generating Deep Questions [98.5161888878238]
本稿では、まず、入力文書のセマンティックレベルグラフを構築し、次にアテンションベースのGGNN(Att-GGNN)を導入してセマンティックグラフを符号化する新しいフレームワークを提案する。
HotpotQAのDeep-question中心のデータセットでは、複数の事実の推論を必要とする問題よりもパフォーマンスが大幅に向上し、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-04-27T10:52:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。