論文の概要: Calculating Question Similarity is Enough:A New Method for KBQA Tasks
- arxiv url: http://arxiv.org/abs/2111.07658v1
- Date: Mon, 15 Nov 2021 10:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 13:51:23.514150
- Title: Calculating Question Similarity is Enough:A New Method for KBQA Tasks
- Title(参考訳): 質問の類似性を計算するには:KBQAタスクの新しい方法
- Authors: Hanyu Zhao, Sha Yuan, Jiahong Leng, Xiang Pan and Guoqiang Wang
- Abstract要約: 本稿では、事前学習言語モデル(PLM)と知識グラフ(KG)を用いたコーパス生成-検索手法(CGRM)を提案する。
まず,mT5モデルに基づいて,知識マスキング言語モデリングと質問生成という2つの新しい事前学習タスクを設計した。
第2に、一連のルールで知識グラフのトリプルを前処理した後、kT5モデルは、処理されたトリプルに基づいて自然言語QAペアを生成する。
- 参考スコア(独自算出の注目度): 8.056701645706404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Base Question Answering (KBQA) aims to answer natural language
questions with the help of an external knowledge base. The core idea is to find
the link between the internal knowledge behind questions and known triples of
the knowledge base. The KBQA task pipeline contains several steps, including
entity recognition, relationship extraction, and entity linking. This kind of
pipeline method means that errors in any procedure will inevitably propagate to
the final prediction. In order to solve the above problem, this paper proposes
a Corpus Generation - Retrieve Method (CGRM) with Pre-training Language Model
(PLM) and Knowledge Graph (KG). Firstly, based on the mT5 model, we designed
two new pre-training tasks: knowledge masked language modeling and question
generation based on the paragraph to obtain the knowledge enhanced T5 (kT5)
model. Secondly, after preprocessing triples of knowledge graph with a series
of heuristic rules, the kT5 model generates natural language QA pairs based on
processed triples. Finally, we directly solve the QA by retrieving the
synthetic dataset. We test our method on NLPCC-ICCPOL 2016 KBQA dataset, and
the results show that our framework improves the performance of KBQA and the
out straight-forward method is competitive with the state-of-the-art.
- Abstract(参考訳): Knowledge Base Question Answering (KBQA) は、自然言語の質問に外部知識ベースの助けを借りて答えることを目的としている。
中心となる考え方は、質問の背後にある内部知識と知識基盤の既知の3倍の関係を見つけることである。
KBQAタスクパイプラインには、エンティティ認識、関係抽出、エンティティリンクなど、いくつかのステップが含まれている。
このようなパイプライン方式は、任意の手順におけるエラーが必然的に最終予測に伝播することを意味する。
そこで本研究では,事前学習言語モデル (PLM) と知識グラフ (KG) を用いたコーパス生成-検索手法 (CGRM) を提案する。
まず,mT5モデルに基づいて,知識マスキング言語モデリングと質問生成という2つの新しい事前学習タスクを設計し,知識強化T5(kT5)モデルを得た。
第二に、知識グラフを一連のヒューリスティックな規則で前処理した後、kT5モデルは処理された三重項に基づいて自然言語QAペアを生成する。
最後に、合成データセットを検索することで、QAを直接解決する。
NLPCC-ICCPOL 2016 KBQAデータセット上で本手法を検証した結果,KBQAの性能は向上し,アウトストレートフォワード法は最先端技術と競合することがわかった。
関連論文リスト
- Exploring Hint Generation Approaches in Open-Domain Question Answering [16.434748534272014]
HINTQAと呼ばれる新しいコンテキスト準備手法を導入する。
従来の方法とは異なり、HINTQA は LLM に対して質問に対する潜在的な答えのヒントを作成するよう促している。
提案手法は,検索した文脈や生成した文脈よりも解答の精度を高めるものである。
論文 参考訳(メタデータ) (2024-09-24T13:50:32Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - Prompting Large Language Models with Chain-of-Thought for Few-Shot
Knowledge Base Question Generation [19.327008532572645]
知識ベースに関する質問生成(KBQG)は、論理形式を自然言語の質問に変換することを目的としている。
推論のためのコンテキスト内学習戦略であるChain-of-Thoughtプロンプトを提案する。
3つのKBQGデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-12T15:08:14Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。