論文の概要: Benchmarking Knowledge-Enhanced Commonsense Question Answering via
Knowledge-to-Text Transformation
- arxiv url: http://arxiv.org/abs/2101.00760v2
- Date: Tue, 5 Jan 2021 03:32:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 07:32:04.355896
- Title: Benchmarking Knowledge-Enhanced Commonsense Question Answering via
Knowledge-to-Text Transformation
- Title(参考訳): 知識とテキストの変換による知識強化コモンセンス質問応答のベンチマーク
- Authors: Ning Bian, Xianpei Han, Bo Chen, Le Sun
- Abstract要約: 我々は,Commonsense Question Answeringの外部知識を活用することで,どこまで得られるかを検討する。
我々は知識強化型cqaを,単純かつ効果的な知識からテキストへの変換フレームワークを用いてベンチマークする。
実験により、我々の知識とテキストのフレームワークは、commonsenseqaデータセット上で効果的かつ最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 30.38055266965927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental ability of humans is to utilize commonsense knowledge in
language understanding and question answering. In recent years, many
knowledge-enhanced Commonsense Question Answering (CQA) approaches have been
proposed. However, it remains unclear: (1) How far can we get by exploiting
external knowledge for CQA? (2) How much potential of knowledge has been
exploited in current CQA models? (3) Which are the most promising directions
for future CQA? To answer these questions, we benchmark knowledge-enhanced CQA
by conducting extensive experiments on multiple standard CQA datasets using a
simple and effective knowledge-to-text transformation framework. Experiments
show that: (1) Our knowledge-to-text framework is effective and achieves
state-of-the-art performance on CommonsenseQA dataset, providing a simple and
strong knowledge-enhanced baseline for CQA; (2) The potential of knowledge is
still far from being fully exploited in CQA -- there is a significant
performance gap from current models to our models with golden knowledge; and
(3) Context-sensitive knowledge selection, heterogeneous knowledge
exploitation, and commonsense-rich language models are promising CQA
directions.
- Abstract(参考訳): 人間の基本的な能力は、言語理解と質問応答において常識知識を活用することである。
近年,cqa(knowledge-enhanced commonsense question answering)アプローチが数多く提案されている。
しかし、(1)CQAの外部知識をどの程度活用できるかは、まだ不明である。
2)現在のCQAモデルではどの程度の知識が活用されているか。
(3)今後のCQAにとって最も有望な方向は何か。
これらの疑問に答えるために、我々は、シンプルで効果的な知識からテキストへの変換フレームワークを用いて、複数の標準CQAデータセットに対して広範な実験を行うことにより、知識に富んだCQAをベンチマークする。
Experiments show that: (1) Our knowledge-to-text framework is effective and achieves state-of-the-art performance on CommonsenseQA dataset, providing a simple and strong knowledge-enhanced baseline for CQA; (2) The potential of knowledge is still far from being fully exploited in CQA -- there is a significant performance gap from current models to our models with golden knowledge; and (3) Context-sensitive knowledge selection, heterogeneous knowledge exploitation, and commonsense-rich language models are promising CQA directions.
関連論文リスト
- Knowledge Condensation and Reasoning for Knowledge-based VQA [20.808840633377343]
近年の研究では、外部知識ベースから知識パスを取得し、それを使って質問に答えている。
本稿では,知識凝縮モデルと知識推論モデルという2つの相乗的モデルを提案する。
本手法は知識に基づくVQAデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-15T06:06:06Z) - Knowledge Generation for Zero-shot Knowledge-based VQA [20.674979268279728]
知識に基づく視覚的質問応答(K-VQA)に対する従来の解決策は、外部知識ベースから知識を取得し、教師付き学習を用いてK-VQAモデルを訓練する。
我々は、LLMから知識を生成し、K-VQAの知識をゼロショットで組み込む、類似した知識生成ベースのK-VQA法を提案し、テストする。
論文 参考訳(メタデータ) (2024-02-04T15:41:35Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - Distinguish Before Answer: Generating Contrastive Explanation as
Knowledge for Commonsense Question Answering [61.53454387743701]
本稿では,概念中心のPrompt-bAsed Contrastive Explanation GenerationモデルであるCPACEを提案する。
CPACEは、得られたシンボル知識を、与えられた候補間の差異をよりよく区別するために、対照的な説明に変換する。
本稿では,CSQA,QASC,OBQAの3つの質問回答データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-14T12:12:24Z) - Utilizing Background Knowledge for Robust Reasoning over Traffic
Situations [63.45021731775964]
我々は、インテリジェントトランスポーテーションの補完的な研究側面である交通理解に焦点を当てる。
本研究は,豊富なコモンセンス知識を前提として,テキストベースの手法とデータセットを対象とする。
交通状況に対するゼロショットQAには3つの知識駆動アプローチを採用しています。
論文 参考訳(メタデータ) (2022-12-04T09:17:24Z) - Rainier: Reinforced Knowledge Introspector for Commonsense Question
Answering [74.90418840431425]
そこで,Rainier(Reinforced Knowledge Introspector,Reinforced Knowledge Introspector,Reinforced Knowledge Introspector)を提案する。
我々のアプローチは、GPT-3で生成された知識を模倣することから始まり、強化学習を通して独自の知識を生み出すことを学ぶ。
本研究は,GPT-3より桁違いに小さいモデルで生成した知識が,GPT-3から抽出した知識の質を超えうることを報告した最初の事例である。
論文 参考訳(メタデータ) (2022-10-06T17:34:06Z) - Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language [121.56329458876655]
グリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldの2つの新しい環境を紹介した。
本稿では,意味のある知識を問うための言語コマンドを生成する「知識の探索(AFK)」エージェントを提案する。
論文 参考訳(メタデータ) (2022-05-12T14:20:31Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。