論文の概要: Prompt to be Consistent is Better than Self-Consistent? Few-Shot and
Zero-Shot Fact Verification with Pre-trained Language Models
- arxiv url: http://arxiv.org/abs/2306.02569v1
- Date: Mon, 5 Jun 2023 03:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 16:56:59.979274
- Title: Prompt to be Consistent is Better than Self-Consistent? Few-Shot and
Zero-Shot Fact Verification with Pre-trained Language Models
- Title(参考訳): 一貫性は自己整合性より優れているか?
事前学習型言語モデルを用いたFew-ShotとZero-Shot Factの検証
- Authors: Fengzhu Zeng and Wei Gao
- Abstract要約: 言語モデル(PLM)の事実性評価能力を改善するためのProToCoと呼ばれる新しい手法を提案する。
クレーム-エビデンスペアが与えられた場合、ProToCoは異なる関係を持つクレームの複数の変種を生成し、単純な一貫性機構をフレーム化する。
パラメータ係数ファインチューニング (PEFT) を用いてPLMを更新し, ショット数およびゼロショットの事実検証タスクにおいて, より正確な予測を行う。
- 参考スコア(独自算出の注目度): 5.2995672384770165
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Few-shot or zero-shot fact verification only relies on a few or no labeled
training examples. In this paper, we propose a novel method called ProToCo, to
\underline{Pro}mpt pre-trained language models (PLMs) \underline{To} be
\underline{Co}nsistent, for improving the factuality assessment capability of
PLMs in the few-shot and zero-shot settings. Given a claim-evidence pair,
ProToCo generates multiple variants of the claim with different relations and
frames a simple consistency mechanism as constraints for making compatible
predictions across these variants. We update PLMs by using parameter-efficient
fine-tuning (PEFT), leading to more accurate predictions in few-shot and
zero-shot fact verification tasks. Our experiments on three public verification
datasets show that ProToCo significantly outperforms state-of-the-art few-shot
fact verification baselines. With a small number of unlabeled instances,
ProToCo also outperforms the strong zero-shot learner T0 on zero-shot
verification. Compared to large PLMs using in-context learning (ICL) method,
ProToCo outperforms OPT-30B and the Self-Consistency-enabled OPT-6.7B model in
both few- and zero-shot settings.
- Abstract(参考訳): ほとんどショットやゼロショットの事実検証は、ラベル付きトレーニング例にのみ依存する。
本稿では,protocoと呼ばれる新しい手法を提案する。protocoは事前学習された言語モデル (plms) \underline{to} be \underline{co}nsistent であり,小ショットおよびゼロショット設定におけるplmの事実性評価能力を向上させる。
クレーム・エビデンス対が与えられると、protocoは異なる関係を持つクレームの複数の変種を生成し、これらの変種間で互換性のある予測を行うための制約として単純な一貫性メカニズムを組み込む。
パラメータ係数ファインチューニング (PEFT) を用いてPLMを更新し, ショット数およびゼロショットの事実検証タスクにおいて, より正確な予測を行う。
3つの公開検証データセットに関する実験では,protocoが最先端のマイナショットファクト検証ベースラインを大きく上回っていることが分かりました。
ラベルなしのインスタンスが少数存在するため、ProToCoはゼロショット検証において強力なゼロショット学習者T0を上回っている。
In-context Learning (ICL) 法を用いた大規模 PLM と比較して,ProToCo は OPT-30B と Self-Consistency 対応 OPT-6.7B モデルに勝っている。
関連論文リスト
- Transductive Zero-Shot and Few-Shot CLIP [24.592841797020203]
本稿では,トランスダクティブなゼロショットと少数ショットのCLIP分類問題に対処する。
推論は、各インスタンスを独立して扱うのではなく、ラベルのないクエリサンプルのミニバッチで共同で実行される。
提案手法は,CLIPのゼロショット性能に対して,画像ネットの精度を約20%向上させる。
論文 参考訳(メタデータ) (2024-04-08T12:44:31Z) - Align Your Prompts: Test-Time Prompting with Distribution Alignment for
Zero-Shot Generalization [64.62570402941387]
テスト領域のギャップを埋めるために、機能分散シフトを最小限にして、テスト時にマルチモーダルプロンプトを適用するために、単一のテストサンプルを使用します。
提案手法は,既存のプロンプト学習技術以上のゼロショットトップ1精度を向上し,ベースラインのMaPLeよりも3.08%向上した。
論文 参考訳(メタデータ) (2023-11-02T17:59:32Z) - Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language
Models [107.05966685291067]
テスト時間プロンプトチューニング (TPT) を提案し, 適応的なプロンプトを1つのテストサンプルで学習する。
TPTはCLIPのゼロショットトップ1の精度を平均3.6%改善する。
クロスデータセットの一般化を目に見えないカテゴリで評価する際、PTは追加のトレーニングデータを使用する最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2022-09-15T17:55:11Z) - SeqZero: Few-shot Compositional Semantic Parsing with Sequential Prompts
and Zero-shot Models [57.29358388475983]
近年の研究では、事前訓練された言語モデルと標準発話を併用する有望な結果が示されている。
本稿では,SeqZeroという構文解析手法を提案する。
特に、SeqZeroは、提案した制約付き再スケーリングを備えたアンサンブルによって、両方のモデルのメリットを明らかにします。
論文 参考訳(メタデータ) (2022-05-15T21:13:15Z) - Prompt Consistency for Zero-Shot Task Generalization [118.81196556175797]
本稿では,ラベルのないデータを用いてゼロショット性能を向上させる手法について検討する。
具体的には,複数のプロンプトを使ってひとつのタスクを指定できることを利用して,プロンプトの一貫性を規則化する手法を提案する。
我々のアプローチは、4つのNLPタスクにまたがる11のデータセットのうち9つにおいて、最先端のゼロショット学習者であるT0を精度で最大10.6の絶対点で上回ります。
論文 参考訳(メタデータ) (2022-04-29T19:18:37Z) - On the Role of Supervision in Unsupervised Constituency Parsing [59.55128879760495]
数ショットのパーシングアプローチは、教師なしのパーシング手法を大きなマージンで上回ることができる。
これは、公正な結論に達するためには、モデル開発に使用されるラベル付きデータの量について慎重に検討する必要があることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T01:34:58Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。