論文の概要: Injecting Numerical Reasoning Skills into Knowledge Base Question
Answering Models
- arxiv url: http://arxiv.org/abs/2112.06109v1
- Date: Sun, 12 Dec 2021 01:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 16:23:12.971838
- Title: Injecting Numerical Reasoning Skills into Knowledge Base Question
Answering Models
- Title(参考訳): 知識ベース質問応答モデルへの数値推論スキルの注入
- Authors: Yu Feng, Jing Zhang, Xiaokang Zhang, Lemao Liu, Cuiping Li, Hong Chen
- Abstract要約: 本稿では,数値推論を考慮した埋め込み型KBQAフレームワークを提案する。
我々は,NT-NSMを作成するために,最先端の埋め込み型KBQAモデルであるNSM上の数値トランスフォーマーを提案する。
KBQAベンチマークの実験では、NT-NSMには数値推論スキルが備わっており、通常の制約された質問に答える際のベースラインを大幅に上回っていることが示されている。
- 参考スコア(独自算出の注目度): 19.964729281684363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding-based methods are popular for Knowledge Base Question Answering
(KBQA), but few current models have numerical reasoning skills and thus
struggle to answer ordinal constrained questions. This paper proposes a new
embedding-based KBQA framework which particularly takes numerical reasoning
into account. We present NumericalTransformer on top of NSM, a state-of-the-art
embedding-based KBQA model, to create NT-NSM. To enable better training, we
propose two pre-training tasks with explicit numerical-oriented loss functions
on two generated training datasets and a template-based data augmentation
method for enriching ordinal constrained QA dataset. Extensive experiments on
KBQA benchmarks demonstrate that with the help of our training algorithm,
NT-NSM is empowered with numerical reasoning skills and substantially
outperforms the baselines in answering ordinal constrained questions.
- Abstract(参考訳): 埋め込みベースの手法は知識ベース質問回答 (KBQA) に人気があるが、数理推論のスキルを持つモデルはほとんどなく、順序付けられた質問に答えるのに苦労している。
本稿では,特に数値推論を考慮した埋め込み型KBQAフレームワークを提案する。
我々は,NT-NSMを作成するために,最先端の埋め込み型KBQAモデルであるNSM上の数値トランスフォーマーを提案する。
より優れたトレーニングを実現するために,2つの生成されたトレーニングデータセットに対して,明示的な数値指向の損失関数を持つ2つの事前学習タスクを提案する。
KBQAベンチマークの大規模な実験により, NT-NSMには数値推論能力が備わっており, 規則的制約された質問に答える上で, 基準線を著しく上回っていることがわかった。
関連論文リスト
- Few-shot Transfer Learning for Knowledge Base Question Answering: Fusing Supervised Models with In-Context Learning [20.80841972133938]
既存の知識ベース質問回答(KBQA)アーキテクチャは、注釈付きデータに飢えている。
KBQAでは,対象ドメインがラベル付きサンプルを少数提供している。
本稿では,複数のソース学習型検索器を用いてKB検索を行う新しいKBQAアーキテクチャFuSIC-KBQAを提案する。
論文 参考訳(メタデータ) (2023-11-15T11:56:56Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - Few-shot In-context Learning for Knowledge Base Question Answering [31.73274700847965]
本稿では,KB-BINDERを提案する。
4つの公開ヘテロジニアスKBQAデータセットの実験結果から,KB-BINDERはコンテクスト内デモを数回しか行わず,高い性能が得られることが示された。
論文 参考訳(メタデータ) (2023-05-02T19:31:55Z) - Improving Visual Question Answering Models through Robustness Analysis
and In-Context Learning with a Chain of Basic Questions [70.70725223310401]
本研究は,VQAモデルのロバスト性を評価するために,基本質問と呼ばれる意味的関連質問を利用する新しい手法を提案する。
実験により,提案手法はVQAモデルのロバスト性を効果的に解析することを示した。
論文 参考訳(メタデータ) (2023-04-06T15:32:35Z) - Augmenting Pre-trained Language Models with QA-Memory for Open-Domain
Question Answering [38.071375112873675]
質問応答型エンコーダデコーダモデルの提案と事前学習戦略について述べる。
これにより、シングルホップのQAタスクにおいて、以前のQA検索方法よりも優れたエンドツーエンドシステムが得られる。
論文 参考訳(メタデータ) (2022-04-10T02:33:00Z) - SYGMA: System for Generalizable Modular Question Answering OverKnowledge
Bases [57.89642289610301]
SYGMAは、複数の知識ベースと複数のリアソニングタイプにまたがる汎用化を容易にするモジュラーアプローチである。
本システムの有効性を,DBpediaとWikidataの2つの異なる知識ベースに属するデータセットを用いて評価することで実証する。
論文 参考訳(メタデータ) (2021-09-28T01:57:56Z) - Question Answering over Knowledge Bases by Leveraging Semantic Parsing
and Neuro-Symbolic Reasoning [73.00049753292316]
本稿では,意味解析と推論に基づくニューロシンボリック質問回答システムを提案する。
NSQAはQALD-9とLC-QuAD 1.0で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-12-03T05:17:55Z) - Beyond I.I.D.: Three Levels of Generalization for Question Answering on
Knowledge Bases [63.43418760818188]
GrailQA.comは64,331の質問で、新しい大規模で高品質なデータセットをリリースしました。
BERTベースのKBQAモデルを提案する。
データセットとモデルの組み合わせにより、KBQAの一般化におけるBERTのような事前学習されたコンテキスト埋め込みの重要な役割を、初めて徹底的に検証し、実証することが可能になります。
論文 参考訳(メタデータ) (2020-11-16T06:36:26Z) - Cross Learning in Deep Q-Networks [82.20059754270302]
本稿では、値に基づく強化学習手法において、よく知られた過大評価問題を緩和することを目的とした、新しいクロスQ-ラーニングアルゴリズムを提案する。
本アルゴリズムは,並列モデルの集合を維持し,ランダムに選択されたネットワークに基づいてQ値を算出することによって,二重Q-ラーニングに基づいて構築する。
論文 参考訳(メタデータ) (2020-09-29T04:58:17Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。