論文の概要: Distinguish Before Answer: Generating Contrastive Explanation as
Knowledge for Commonsense Question Answering
- arxiv url: http://arxiv.org/abs/2305.08135v1
- Date: Sun, 14 May 2023 12:12:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 17:14:48.743751
- Title: Distinguish Before Answer: Generating Contrastive Explanation as
Knowledge for Commonsense Question Answering
- Title(参考訳): 回答の前に区別する:共通質問応答の知識としての対比的説明の生成
- Authors: Qianglong Chen, Guohai Xu, Ming Yan, Ji Zhang, Fei Huang, Luo Si and
Yin Zhang
- Abstract要約: 本稿では,概念中心のPrompt-bAsed Contrastive Explanation GenerationモデルであるCPACEを提案する。
CPACEは、得られたシンボル知識を、与えられた候補間の差異をよりよく区別するために、対照的な説明に変換する。
本稿では,CSQA,QASC,OBQAの3つの質問回答データセットについて実験を行った。
- 参考スコア(独自算出の注目度): 61.53454387743701
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing knowledge-enhanced methods have achieved remarkable results in
certain QA tasks via obtaining diverse knowledge from different knowledge
bases. However, limited by the properties of retrieved knowledge, they still
have trouble benefiting from both the knowledge relevance and distinguishment
simultaneously. To address the challenge, we propose CPACE, a Concept-centric
Prompt-bAsed Contrastive Explanation Generation model, which aims to convert
obtained symbolic knowledge into a contrastive explanation for better
distinguishing the differences among given candidates. Firstly, following
previous works, we retrieve different types of symbolic knowledge with a
concept-centric knowledge extraction module. After that, we generate
corresponding contrastive explanations using acquired symbolic knowledge and
explanation prompts as guidance for better modeling the knowledge
distinguishment and interpretability. Finally, we regard the generated
contrastive explanation as external knowledge for downstream task enhancement.
We conduct a series of experiments on three widely-used question-answering
datasets: CSQA, QASC, and OBQA. Experimental results demonstrate that with the
help of generated contrastive explanation, our CPACE model achieves new SOTA on
CSQA (89.8% on the testing set, 0.9% higher than human performance), and gains
impressive improvement on QASC and OBQA (4.2% and 3.5%, respectively).
- Abstract(参考訳): 既存の知識強化手法は、異なる知識ベースから多様な知識を得ることにより、特定のQAタスクにおいて顕著な成果を上げている。
しかし、検索された知識の性質によって制限を受けると、知識の関連性と区別の両方から利益を得るのに問題が生じる。
この課題を解決するために,提案するCPACEは概念中心のPrompt-bAsed Contrastive Explanation Generationモデルである。
まず,先行研究に続いて,概念中心知識抽出モジュールを用いて,異なる種類の記号的知識を検索する。
その後、獲得した記号的知識と説明プロンプトを用いて、対応する対比的説明を生成し、知識の識別と解釈性をよりよくモデル化するためのガイダンスとする。
最後に,生成したコントラスト説明を,下流タスク強化のための外部知識として捉える。
本稿では,CSQA,QASC,OBQAの3つの質問回答データセットについて実験を行った。
実験結果から, CPACEモデルはCSQAの新しいSOTA(テストセット89.8%, 人体性能0.9%)を実現し, QASCとOBQA(それぞれ4.2%, 3.5%)の大幅な改善が得られた。
関連論文リスト
- Knowledge Condensation and Reasoning for Knowledge-based VQA [20.808840633377343]
近年の研究では、外部知識ベースから知識パスを取得し、それを使って質問に答えている。
本稿では,知識凝縮モデルと知識推論モデルという2つの相乗的モデルを提案する。
本手法は知識に基づくVQAデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-15T06:06:06Z) - Rainier: Reinforced Knowledge Introspector for Commonsense Question
Answering [74.90418840431425]
そこで,Rainier(Reinforced Knowledge Introspector,Reinforced Knowledge Introspector,Reinforced Knowledge Introspector)を提案する。
我々のアプローチは、GPT-3で生成された知識を模倣することから始まり、強化学習を通して独自の知識を生み出すことを学ぶ。
本研究は,GPT-3より桁違いに小さいモデルで生成した知識が,GPT-3から抽出した知識の質を超えうることを報告した最初の事例である。
論文 参考訳(メタデータ) (2022-10-06T17:34:06Z) - Uncertainty-based Visual Question Answering: Estimating Semantic
Inconsistency between Image and Knowledge Base [0.7081604594416336]
KVQAタスクは、画像や質問に対する理解だけでなく、追加の外部知識を必要とする質問に答えることを目的としている。
KVQAの最近の研究は、外部知識をマルチモーダル形式で注入し、より多くの知識が使用されるにつれて、無関係な情報が付加され、質問応答を混乱させる可能性がある。
論文 参考訳(メタデータ) (2022-07-27T01:58:29Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。