論文の概要: Knowledge-enriched, Type-constrained and Grammar-guided Question
Generation over Knowledge Bases
- arxiv url: http://arxiv.org/abs/2010.03157v3
- Date: Fri, 23 Oct 2020 03:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 22:00:07.839483
- Title: Knowledge-enriched, Type-constrained and Grammar-guided Question
Generation over Knowledge Bases
- Title(参考訳): 知識ベースを用いた知識富化・型制約・文法指導型質問生成
- Authors: Sheng Bi and Xiya Cheng and Yuan-Fang Li and Yongzhen Wang and Guilin
Qi
- Abstract要約: 知識ベース上の質問生成(KBQG)は、サブグラフに関する自然言語の質問を生成することを目的としている。
現在のエンコーダデコーダベースの手法、特に小さなサブグラフでは、大きな課題が2つ残っている。
我々は、KTGという、知識に富んだ、型に制約のある、文法に制約のあるKBQGモデルを提案する。
- 参考スコア(独自算出の注目度): 20.412744079015475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question generation over knowledge bases (KBQG) aims at generating
natural-language questions about a subgraph, i.e. a set of (connected) triples.
Two main challenges still face the current crop of encoder-decoder-based
methods, especially on small subgraphs: (1) low diversity and poor fluency due
to the limited information contained in the subgraphs, and (2) semantic drift
due to the decoder's oblivion of the semantics of the answer entity. We propose
an innovative knowledge-enriched, type-constrained and grammar-guided KBQG
model, named KTG, to addresses the above challenges. In our model, the encoder
is equipped with auxiliary information from the KB, and the decoder is
constrained with word types during QG. Specifically, entity domain and
description, as well as relation hierarchy information are considered to
construct question contexts, while a conditional copy mechanism is incorporated
to modulate question semantics according to current word types. Besides, a
novel reward function featuring grammatical similarity is designed to improve
both generative richness and syntactic correctness via reinforcement learning.
Extensive experiments show that our proposed model outperforms existing methods
by a significant margin on two widely-used benchmark datasets SimpleQuestion
and PathQuestion.
- Abstract(参考訳): 知識ベース上の質問生成(KBQG)は、サブグラフに関する自然言語の質問を生成することを目的としている。
エンコーダ・デコーダに基づく方法の現在の2つの大きな課題、特に小さなサブグラフにおいて、(1)サブグラフに含まれる限られた情報による多様性の低さ、および(2)デコーダが回答エンティティのセマンティクスにこだわっていないことによる意味のドリフトである。
我々は、上記の課題に対処するため、知識豊かで型制約のあるKBQGモデルKTGを提案する。
このモデルでは、エンコーダはkbからの補助情報を備えており、デコーダはqg中にワードタイプによって制約される。
具体的には、エンティティドメインと記述、および関連階層情報は質問コンテキストの構築と見なされ、条件付きコピー機構は現在の単語タイプに応じて質問セマンティクスを変調する。
また、文法的類似性を特徴とする新たな報酬関数は、強化学習による生成的豊かさと構文的正しさの両方を改善するように設計されている。
大規模な実験により,提案手法はSimpleQuestionとPathQuestionの2つのベンチマークデータセットにおいて,既存の手法よりも優れた性能を示した。
関連論文リスト
- Word and Phrase Features in Graph Convolutional Network for Automatic Question Classification [0.7405975743268344]
本稿では,グラフ畳み込みネットワーク(GCN)を利用した質問の固有構造をモデル化する手法を提案する。
質問をグラフとして表現することにより、GCNが言語間の相互接続性からより効果的に学習できるようにする。
以上の結果から,GCNは句ベースの特徴を付加したものであり,より正確で文脈に配慮した質問分類のための有望な解であることがわかった。
論文 参考訳(メタデータ) (2024-09-04T07:13:30Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - TIARA: Multi-grained Retrieval for Robust Question Answering over Large
Knowledge Bases [20.751369684593985]
TIARAは、PLMやオラクルエンティティアノテーションなどを含む以前のSOTAよりも、GrailQAおよびWebQuestionsSP上の少なくとも4.1と1.1のF1ポイントが優れている。
論文 参考訳(メタデータ) (2022-10-24T02:41:10Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z) - Keyphrase Extraction with Dynamic Graph Convolutional Networks and
Diversified Inference [50.768682650658384]
キーワード抽出(KE)は、ある文書でカバーされている概念やトピックを正確に表現するフレーズの集合を要約することを目的としている。
最近のシークエンス・ツー・シークエンス(Seq2Seq)ベースの生成フレームワークはKEタスクで広く使われ、様々なベンチマークで競合性能を得た。
本稿では,この2つの問題を同時に解くために,動的グラフ畳み込みネットワーク(DGCN)を採用することを提案する。
論文 参考訳(メタデータ) (2020-10-24T08:11:23Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z) - Syn-QG: Syntactic and Shallow Semantic Rules for Question Generation [49.671882751569534]
我々は、宣言文を質問応答対に変換する透明な統語規則であるSynQGを開発した。
PropBankの引数記述とVerbNet状態述語を利用して、浅いセマンティックコンテンツを組み込む。
文法的不正確な質問を排除し,構文の流布性を改善するために,これらの構文規則のアウトプットを逆翻訳する。
論文 参考訳(メタデータ) (2020-04-18T19:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。