論文の概要: Few-shot Multi-hop Question Answering over Knowledge Base
- arxiv url: http://arxiv.org/abs/2112.11909v1
- Date: Tue, 14 Dec 2021 00:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 14:30:29.784156
- Title: Few-shot Multi-hop Question Answering over Knowledge Base
- Title(参考訳): 知識ベースを問うマルチホップ質問
- Authors: Fan Meihao
- Abstract要約: 本稿では,事前学習言語モデルと人工訓練サンプル構築戦略を備えた効率的なパイプライン手法を提案する。
CCKS 2019 Complex Question Answering via Knowledge Base Task上で、テストデータセットのF1スコアを62.55%達成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous work on Chinese Knowledge Base Question Answering has been
restricted due to the lack of complex Chinese semantic parsing dataset and the
exponentially growth of searching space with the length of relation paths. This
paper proposes an efficient pipeline method equipped with a pre-trained
language model and a strategy to construct artificial training samples, which
only needs small amount of data but performs well on open-domain complex
Chinese Question Answering task. Besides, By adopting a Beam Search algorithm
based on a language model marking scores for candidate query tuples, we
decelerate the growing relation paths when generating multi-hop query paths.
Finally, we evaluate our model on CCKS2019 Complex Question Answering via
Knowledge Base task and achieves F1-score of 62.55\% on the test dataset.
Moreover when training with only 10\% data, our model can still achieves
F1-score of 58.54\%. The result shows the capability of our model to process
KBQA task and the advantage in few-shot learning.
- Abstract(参考訳): 中国語知識ベース質問応答に関するこれまでの研究は、複雑な中国語意味解析データセットの欠如と、関係経路の長さによる探索空間の指数関数的な成長により制限されてきた。
本稿では,事前学習された言語モデルと,少ないデータしか必要とせず,オープンドメインの複雑な中国語質問応答タスクでうまく機能する人工学習サンプルを構築するための戦略を備えた効率的なパイプライン手法を提案する。
さらに,言語モデルに基づくビームサーチアルゴリズムを適用して,候補クエリタプルのスコアをマークすることで,マルチホップクエリパスを生成する際の関係経路の増大を抑える。
最後に、知識ベースタスクによるCCKS2019複雑質問回答のモデルを評価し、テストデータセット上でF1スコアの62.55\%を達成する。
さらに、10\%のデータでトレーニングを行う場合、このモデルは58.54\%のf1-scoreを達成できる。
その結果、KBQAタスクを処理できるモデルと、数ショット学習の利点が示された。
関連論文リスト
- Few-Shot Data Synthesis for Open Domain Multi-Hop Question Answering [40.86455734818704]
オープンドメインのマルチホップ質問応答のためのほとんどショットラーニングは、大言語モデルの非コンテキストラーニング能力に依存している。
そこで本研究では,10組未満のアノテート質問応答対を必要とするマルチホップ質問応答のためのデータ合成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T04:57:31Z) - PAXQA: Generating Cross-lingual Question Answering Examples at Training
Scale [53.92008514395125]
PAXQA(クロスリンガル(x)QAのアノテーションの計画)は、クロスリンガルQAを2段階に分解する。
本稿では、並列ビットから制約されたエンティティを抽出する語彙制約機械翻訳の新たな利用法を提案する。
これらのデータセットに基づいて微調整されたモデルは、複数の抽出されたQAデータセット上で、先行合成データ生成モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-04-24T15:46:26Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Calculating Question Similarity is Enough:A New Method for KBQA Tasks [8.056701645706404]
本稿では、事前学習言語モデル(PLM)と知識グラフ(KG)を用いたコーパス生成-検索手法(CGRM)を提案する。
まず,mT5モデルに基づいて,知識マスキング言語モデリングと質問生成という2つの新しい事前学習タスクを設計した。
第2に、一連のルールで知識グラフのトリプルを前処理した後、kT5モデルは、処理されたトリプルに基づいて自然言語QAペアを生成する。
論文 参考訳(メタデータ) (2021-11-15T10:31:46Z) - CCQA: A New Web-Scale Question Answering Dataset for Model Pre-Training [21.07506671340319]
本稿では,Common Crawlプロジェクトに基づく質問応答データセットを提案する。
我々は、約1億3000万の多言語問合せ対を抽出し、約6000万の英語データポイントを抽出した。
これまでに見つからなかった自然QAペア数を用いて、質問応答タスクのための大規模ドメイン事前学習の可能性を示すために、人気のある言語モデルを事前訓練する。
論文 参考訳(メタデータ) (2021-10-14T21:23:01Z) - RETRONLU: Retrieval Augmented Task-Oriented Semantic Parsing [11.157958012672202]
マルチドメインタスク指向のセマンティックパーシングの問題に対して,検索に基づくモデリングのアイデアを適用している。
我々のアプローチであるRetroNLUは、シーケンス・ツー・シーケンス・モデルアーキテクチャを検索コンポーネントで拡張する。
近隣の検索コンポーネントの品質、モデルの感度を分析し、発話の複雑さの異なる意味解析の性能を分解する。
論文 参考訳(メタデータ) (2021-09-21T19:30:30Z) - An Empirical Study on Few-shot Knowledge Probing for Pretrained Language
Models [54.74525882974022]
1ホップと2ホップの双方において、いくつかの例は、探索性能を強く向上させることができることを示す。
特に、モデル内のバイアスベクトルを微調整する単純なyet効果のアプローチが、既存のプロンプトエンジニアリング手法より優れていることが分かる。
論文 参考訳(メタデータ) (2021-09-06T23:29:36Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks [133.93803565077337]
検索強化生成モデルは、事前訓練されたパラメトリックメモリと非パラメトリックメモリを組み合わせて言語生成を行う。
我々は、RAGモデルが、最先端パラメトリックのみのセク2セックベースラインよりも、より具体的で、多様で、現実的な言語を生成することを示す。
論文 参考訳(メタデータ) (2020-05-22T21:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。