論文の概要: CIKQA: Learning Commonsense Inference with a Unified
Knowledge-in-the-loop QA Paradigm
- arxiv url: http://arxiv.org/abs/2210.06246v1
- Date: Wed, 12 Oct 2022 14:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:11:48.399189
- Title: CIKQA: Learning Commonsense Inference with a Unified
Knowledge-in-the-loop QA Paradigm
- Title(参考訳): CIKQA: 統一知識とループQAパラダイムによるコモンセンス推論の学習
- Authors: Hongming Zhang, Yintong Huo, Yanai Elazar, Yangqiu Song, Yoav
Goldberg, Dan Roth
- Abstract要約: 我々は,コモンセンス知識の大規模化により,すべてのコモンセンスをカバーできるような,各タスクに十分なトレーニングセットをアノテートすることは不可能である,と論じる。
モデルのコモンセンス推論能力について,2つの観点から検討する。
我々は、このベンチマークを知識-イン-ループ質問回答(CIKQA)を用いたCommonsense Inferenceと命名した。
- 参考スコア(独自算出の注目度): 120.98789964518562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the community has achieved substantial progress on many commonsense
reasoning benchmarks. However, it is still unclear what is learned from the
training process: the knowledge, inference capability, or both? We argue that
due to the large scale of commonsense knowledge, it is infeasible to annotate a
large enough training set for each task to cover all commonsense for learning.
Thus we should separate the commonsense knowledge acquisition and inference
over commonsense knowledge as two separate tasks. In this work, we focus on
investigating models' commonsense inference capabilities from two perspectives:
(1) Whether models can know if the knowledge they have is enough to solve the
task; (2) Whether models can develop commonsense inference capabilities that
generalize across commonsense tasks. We first align commonsense tasks with
relevant knowledge from commonsense knowledge bases and ask humans to annotate
whether the knowledge is enough or not. Then, we convert different commonsense
tasks into a unified question answering format to evaluate models'
generalization capabilities. We name the benchmark as Commonsense Inference
with Knowledge-in-the-loop Question Answering (CIKQA).
- Abstract(参考訳): 近年、コミュニティは多くのコモンセンス推論ベンチマークでかなりの進歩を遂げている。
しかしながら、トレーニングプロセスから学んだこと、すなわち知識、推論能力、あるいはその両方についてはまだ不明である。
我々は,コモンセンス知識の大規模化により,すべてのコモンセンスをカバーできるような,各タスクに十分なトレーニングセットをアノテートすることは不可能である,と論じる。
そこで我々は,コモンセンス知識の獲得と,コモンセンス知識に対する推測を2つのタスクとして分離すべきである。
本研究は,(1)モデルが持つ知識がタスクを解決できるかどうか,(2)モデルがコモンセンスタスクを一般化するコモンセンス推論機能を開発できるか,という2つの観点から,モデルのコモンセンス推論能力を調査することに焦点を当てる。
まず、コモンセンスのタスクをコモンセンスの知識ベースから関連する知識と整合させ、その知識が十分かどうかを人間に注釈を付ける。
そして,異なるコモンセンスタスクを統一された質問応答形式に変換し,モデルの一般化能力を評価する。
このベンチマークを、CIKQA (Commonsense Inference with Knowledge-in-the-loop Question Answering) と呼ぶ。
関連論文リスト
- What Really is Commonsense Knowledge? [58.5342212738895]
我々は、既存のコモンセンス知識の定義を調査し、概念を定義するための3つのフレームワークに基礎を置き、それらをコモンセンス知識の統一的な定義に統合する。
次に、アノテーションと実験のための統合された定義をCommonsenseQAとCommonsenseQA 2.0データセットで使用します。
本研究は,2つのデータセットには非常識知識のインスタンスが多数存在し,これら2つのサブセットに対して大きな性能差があることを示す。
論文 参考訳(メタデータ) (2024-11-06T14:54:19Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Multi-hop Commonsense Knowledge Injection Framework for Zero-Shot
Commonsense Question Answering [6.086719709100659]
本稿では,新しいマルチホップコモンセンス知識注入フレームワークを提案する。
本フレームワークは,5つの共通知識質問応答ベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-05-10T07:13:47Z) - DisentQA: Disentangling Parametric and Contextual Knowledge with
Counterfactual Question Answering [34.70206857546496]
質問応答モデルは通常、推論時間中に「知識」の2つのソースにアクセスする。
答えが与えられた非パラメトリック知識に由来するかどうかは不明である。
本稿では,2つの知識源を解き放つために,QAモデルを訓練する新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-11-10T15:34:44Z) - ArT: All-round Thinker for Unsupervised Commonsense Question-Answering [54.068032948300655]
本稿では,知識生成における関連性を完全に取り除き,オールラウンド思考者(ArT)のアプローチを提案する。
我々は、COPA、SocialIQA、SCTの3つの共通センスQAベンチマークで評価した。
論文 参考訳(メタデータ) (2021-12-26T18:06:44Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - Common Sense or World Knowledge? Investigating Adapter-Based Knowledge
Injection into Pretrained Transformers [54.417299589288184]
本研究では,概念ネットとそれに対応するオープンマインド・コモンセンス(OMCS)コーパスから,BERTの分布知識と概念知識を補完するモデルについて検討する。
我々のアダプタベースのモデルは,ConceptNet や OMCS に明示的に存在する概念的知識のタイプを必要とする推論タスクにおいて,BERT を大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-24T15:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。