論文の概要: Rainier: Reinforced Knowledge Introspector for Commonsense Question
Answering
- arxiv url: http://arxiv.org/abs/2210.03078v1
- Date: Thu, 6 Oct 2022 17:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 15:24:17.719701
- Title: Rainier: Reinforced Knowledge Introspector for Commonsense Question
Answering
- Title(参考訳): rainier:コモンセンス質問応答のための知識イントロスペクタ
- Authors: Jiacheng Liu, Skyler Hallinan, Ximing Lu, Pengfei He, Sean Welleck,
Hannaneh Hajishirzi, Yejin Choi
- Abstract要約: そこで,Rainier(Reinforced Knowledge Introspector,Reinforced Knowledge Introspector,Reinforced Knowledge Introspector)を提案する。
我々のアプローチは、GPT-3で生成された知識を模倣することから始まり、強化学習を通して独自の知識を生み出すことを学ぶ。
本研究は,GPT-3より桁違いに小さいモデルで生成した知識が,GPT-3から抽出した知識の質を超えうることを報告した最初の事例である。
- 参考スコア(独自算出の注目度): 74.90418840431425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge underpins reasoning. Recent research demonstrates that when
relevant knowledge is provided as additional context to commonsense question
answering (QA), it can substantially enhance the performance even on top of
state-of-the-art. The fundamental challenge is where and how to find such
knowledge that is high quality and on point with respect to the question;
knowledge retrieved from knowledge bases are incomplete and knowledge generated
from language models are inconsistent.
We present Rainier, or Reinforced Knowledge Introspector, that learns to
generate contextually relevant knowledge in response to given questions. Our
approach starts by imitating knowledge generated by GPT-3, then learns to
generate its own knowledge via reinforcement learning where rewards are shaped
based on the increased performance on the resulting question answering. Rainier
demonstrates substantial and consistent performance gains when tested over 9
different commonsense benchmarks: including 5 in-domain benchmarks that are
seen during reinforcement learning, as well as 4 out-of-domain benchmarks that
are kept unseen. Our work is the first to report that knowledge generated by
models that are orders of magnitude smaller than GPT-3, even without direct
supervision on the knowledge itself, can exceed the quality of knowledge
elicited from GPT-3 for commonsense QA.
- Abstract(参考訳): 知識は推論の基礎となる。
近年の研究では、コモンセンス質問応答(QA)に追加の文脈として関連する知識が提供される場合、最先端技術でも性能を大幅に向上させることができることが示されている。
基本的な課題は、知識ベースから得られた知識が不完全であり、言語モデルから生成された知識が一貫性がない、という問題に対して、高品質かつポイントの知識を見つける場所と方法である。
我々は,与えられた質問に対して文脈的関連のある知識を生成できる知識イントロスペクタであるrainier(強化知識イントロスペクタ)を提案する。
提案手法は, GPT-3 が生成した知識を模倣することから始まり, 得られた質問応答の性能向上に基づいて報酬を形作る強化学習を通じて, 独自の知識を生成することを学習する。
Rainier氏は、9つの異なるコモンセンスベンチマーク(強化学習中に見られる5つのドメイン内ベンチマークを含む)でテストした場合、大幅に、一貫したパフォーマンス向上を示す。
本研究は,GPT-3より桁違いに小さいモデルで生成した知識が,GPT-3から抽出した知識の質を超えうることを報告した最初の事例である。
関連論文リスト
- Knowledge Condensation and Reasoning for Knowledge-based VQA [20.808840633377343]
近年の研究では、外部知識ベースから知識パスを取得し、それを使って質問に答えている。
本稿では,知識凝縮モデルと知識推論モデルという2つの相乗的モデルを提案する。
本手法は知識に基づくVQAデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-15T06:06:06Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - ArT: All-round Thinker for Unsupervised Commonsense Question-Answering [54.068032948300655]
本稿では,知識生成における関連性を完全に取り除き,オールラウンド思考者(ArT)のアプローチを提案する。
我々は、COPA、SocialIQA、SCTの3つの共通センスQAベンチマークで評価した。
論文 参考訳(メタデータ) (2021-12-26T18:06:44Z) - Coarse-to-Careful: Seeking Semantic-related Knowledge for Open-domain
Commonsense Question Answering [12.406729445165857]
背景コモンセンスを必要とする質問に機械が答えるのを助けるために、外部知識を利用するのが一般的である。
本稿では,知識注入を粗大から粗大に制御する意味駆動型知識認識型QAフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-04T10:56:36Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - Benchmarking Knowledge-Enhanced Commonsense Question Answering via
Knowledge-to-Text Transformation [30.38055266965927]
我々は,Commonsense Question Answeringの外部知識を活用することで,どこまで得られるかを検討する。
我々は知識強化型cqaを,単純かつ効果的な知識からテキストへの変換フレームワークを用いてベンチマークする。
実験により、我々の知識とテキストのフレームワークは、commonsenseqaデータセット上で効果的かつ最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-01-04T04:29:03Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。