論文の概要: CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering
- arxiv url: http://arxiv.org/abs/2305.14869v1
- Date: Wed, 24 May 2023 08:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 18:23:36.097668
- Title: CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering
- Title(参考訳): 車:概念化-ゼロショットコモンセンス質問応答のための推論
- Authors: Weiqi Wang, Tianqing Fang, Wenxuan Ding, Baixuan Xu, Xin Liu, Yangqiu
Song, Antoine Bosselut
- Abstract要約: ゼロショットコモンセンス質問応答の課題に対処するために,概念化強化推論器(CAR)を提案する。
CARは、CommonSenseの知識を多くの高レベルなインスタンスに抽象化し、CommonSenseの知識ベースの範囲を拡大する。
CARは、既存のメソッドよりも、ゼロショットのコモンセンスシナリオに関する質問に答えることにより、より堅牢に一般化する。
- 参考スコア(独自算出の注目度): 38.284177944752514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of zero-shot commonsense question answering evaluates models on
their capacity to reason about general scenarios beyond those presented in
specific datasets. Existing approaches for tackling this task leverage external
knowledge from CommonSense Knowledge Bases (CSKBs) by pretraining the model on
synthetic QA pairs constructed from CSKBs. In these approaches, negative
examples (distractors) are formulated by randomly sampling from CSKBs using
fairly primitive keyword constraints. However, two bottlenecks limit these
approaches: the inherent incompleteness of CSKBs limits the semantic coverage
of synthetic QA pairs, and the lack of human annotations makes the sampled
negative examples potentially uninformative and contradictory. To tackle these
limitations above, we propose Conceptualization-Augmented Reasoner (CAR), a
zero-shot commonsense question-answering framework that fully leverages the
power of conceptualization. Specifically, CAR abstracts a commonsense knowledge
triple to many higher-level instances, which increases the coverage of CSKB and
expands the ground-truth answer space, reducing the likelihood of selecting
false-negative distractors. Extensive experiments demonstrate that CAR more
robustly generalizes to answering questions about zero-shot commonsense
scenarios than existing methods, including large language models, such as
GPT3.5 and ChatGPT. Our codes, data, and model checkpoints are available at
https://github.com/HKUST-KnowComp/CAR.
- Abstract(参考訳): zero-shot commonsense question answeringのタスクは、特定のデータセットに示される以上の一般的なシナリオを推論する能力のモデルを評価する。
このタスクに取り組むための既存のアプローチは、CSKBから構築された合成QAペアにモデルを事前学習することで、CSKB(CommonSense Knowledge Bases)からの外部知識を活用する。
これらのアプローチでは、負の例(ディストラクタ)は、かなり原始的なキーワード制約を用いてcskbからランダムにサンプリングすることで定式化される。
cskbの固有の不完全性は、合成qaペアの意味的カバレッジを制限し、人間のアノテーションの欠如は、サンプルされた否定的な例を潜在的に非形式的で矛盾する可能性がある。
上記の制限に対処するため,概念化のパワーをフル活用するゼロショットコモンセンス質問応答フレームワークである概念化拡張推論(CAR)を提案する。
特に、CARはコモンセンスの知識を多くの高レベルなインスタンスに抽象化し、CSKBのカバレッジを増大させ、基礎的な答え空間を拡大し、偽陰性なイントラクタを選択する可能性を減らす。
広範な実験により、gpt3.5やchatgptといった大規模言語モデルを含む既存の方法よりも、自動車はゼロショット・コモンセンスシナリオに関する質問に答えることにより堅牢に一般化できることが示されている。
私たちのコード、データ、モデルチェックポイントはhttps://github.com/HKUST-KnowComp/CAR.orgで公開されています。
関連論文リスト
- ConstraintChecker: A Plugin for Large Language Models to Reason on
Commonsense Knowledge Bases [53.29427395419317]
コモンセンス知識ベース(CSKB)に対する推論は,新しいコモンセンス知識を取得する方法として検討されてきた。
我々は**ConstraintChecker*を提案します。
論文 参考訳(メタデータ) (2024-01-25T08:03:38Z) - From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - QADYNAMICS: Training Dynamics-Driven Synthetic QA Diagnostic for
Zero-Shot Commonsense Question Answering [48.25449258017601]
State-of-the-artはCommonSense Knowledge Basesから構築されたQAペア上での微調整言語モデルにアプローチする。
本稿では,QA診断と改善のためのトレーニング動的フレームワークQADYNAMICSを提案する。
論文 参考訳(メタデータ) (2023-10-17T14:27:34Z) - Advanced Semantics for Commonsense Knowledge Extraction [32.43213645631101]
概念とその特性に関する常識知識(CSK)は、堅牢なチャットボットのようなAIアプリケーションに有用である。
本稿では,CSKアサーションの大規模知識ベース(KB)を自動構築するAscentという手法を提案する。
Ascent は部分群とアスペクトで合成概念をキャプチャし、セマンティック・ファセットでアサーションを精製することで三重項を超えていく。
論文 参考訳(メタデータ) (2020-11-02T11:37:17Z) - Counterfactual Variable Control for Robust and Interpretable Question
Answering [57.25261576239862]
ディープニューラルネットワークに基づく質問応答(QA)モデルは、多くの場合、堅牢でも説明もできない。
本稿では、因果推論を用いてQAモデルのこのような突発的な「能力」を検証する。
本稿では,任意のショートカット相関を明示的に緩和する,CVC(Counterfactual Variable Control)という新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-12T10:09:05Z) - BoxE: A Box Embedding Model for Knowledge Base Completion [53.57588201197374]
知識ベース補完(KBC)は、知識ベース(KB)に存在する情報を活用することにより、行方不明な事実を自動的に推測することを目的とする。
既存の埋め込みモデルは、以下の制限の少なくとも1つに該当する。
BoxEは、エンティティをポイントとして、関係をハイパー矩形(またはボックス)の集合として埋め込む
論文 参考訳(メタデータ) (2020-07-13T09:40:49Z) - Joint Reasoning for Multi-Faceted Commonsense Knowledge [28.856786775318486]
Commonsense Knowledge(CSK)は、視覚的理解からチャットボットまで、さまざまなAIアプリケーションをサポートする。
CSKの買収に関する以前の研究は、日常的なオブジェクトやアクティビティのような概念と、概念のほとんどまたは一部のインスタンスを保持するプロパティを関連付けるステートメントをまとめたものだった。
本稿では,CSK文の多面的モデルと,関連文の集合に対する共同推論手法を提案する。
論文 参考訳(メタデータ) (2020-01-13T11:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。