論文の概要: Few-Shot Self-Rationalization with Natural Language Prompts
- arxiv url: http://arxiv.org/abs/2111.08284v1
- Date: Tue, 16 Nov 2021 08:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 01:03:45.204674
- Title: Few-Shot Self-Rationalization with Natural Language Prompts
- Title(参考訳): 自然言語プロンプトを用いたマイナショット自己合理化
- Authors: Ana Marasovi\'c, Iz Beltagy, Doug Downey, Matthew E. Peters
- Abstract要約: タスクラベルを予測するセルフリレーゼーションモデルは、その予測のために自由テキストのエラボレートを生成する。
しかしながら、これらのモデルは、現在、タスクごとに大量の人書き自由テキスト説明で訓練されている。
少ない学習例を用いて,より現実的な自己合理化環境について検討することを提案する。
- 参考スコア(独自算出の注目度): 29.23404535276466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-rationalization models that predict task labels and generate free-text
elaborations for their predictions could enable more intuitive interaction with
NLP systems. These models are, however, currently trained with a large amount
of human-written free-text explanations for each task which hinders their
broader usage. We propose to study a more realistic setting of
self-rationalization using few training examples. We present FEB -- a
standardized collection of four existing English-language datasets and
associated metrics. We identify the right prompting approach by extensively
exploring natural language prompts on FEB. Then, by using this prompt and
scaling the model size, we demonstrate that making progress on few-shot
self-rationalization is possible. We show there is still ample room for
improvement in this task: the average plausibility of generated explanations
assessed by human annotators is at most 51%, while plausibility of human
explanations is 76%. We hope that FEB together with our proposed approach will
spur the community to take on the few-shot self-rationalization challenge.
- Abstract(参考訳): タスクラベルを予測し、予測のための自由テキストのエラボレーションを生成するセルフリレーゼーションモデルは、NLPシステムとのより直感的な相互作用を可能にする。
しかしながら、これらのモデルは現在、より広範な使用を妨げるタスクごとに、大量の人書き自由テキスト説明で訓練されている。
学習例の少ない自己合理化のより現実的な設定について検討することを提案する。
FEB - 既存の4つの英語データセットと関連するメトリクスの標準化されたコレクション。
我々は、FEB上の自然言語プロンプトを広範囲に探索することで、正しいプロンプトアプローチを特定する。
そして,このプロンプトを用いてモデルサイズを拡大することにより,数発の自己合理的化の進行が可能であることを示す。
人間のアノテータによって評価された説明文の平均的妥当性は51%であり,人間の説明文の平均的妥当性は76%である。
提案されたアプローチとともにFEBがコミュニティを刺激し、数発のセルフリレーゼーション課題に取り組みたいと考えています。
関連論文リスト
- Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - ZARA: Improving Few-Shot Self-Rationalization for Small Language Models [29.755148112827502]
本稿では,自己学習のための擬似並列データを自動的に構築するためのZARA(Zero-shot Augmentation of Rationale-Answer pairs)を提案する。
ZARAは、タスク精度と説明基準の両方において、FEBベンチマーク上でSOTA性能を達成する。
論文 参考訳(メタデータ) (2023-05-12T10:07:12Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - Structured, flexible, and robust: benchmarking and improving large
language models towards more human-like behavior in out-of-distribution
reasoning tasks [39.39138995087475]
言語単独で統計的パターンを学習することで、どの程度の人間的な思考を捉えることができるのかを問う。
本ベンチマークは2つの問題解決領域(計画と説明生成)を含み,一般化を必要とするように設計されている。
このベンチマークでは、人間はLSMよりもはるかに堅牢であることが分かりました。
論文 参考訳(メタデータ) (2022-05-11T18:14:33Z) - An Application of Pseudo-Log-Likelihoods to Natural Language Scoring [5.382454613390483]
比較的少ないパラメータとトレーニングステップを持つ言語モデルは、最近の大規模なデータセットでそれを上回るパフォーマンスを得ることができる。
二項選択タスクにおける常識推論のための絶対的最先端結果を生成する。
より小さなモデルの堅牢性は、構成性の観点から理解されるべきである。
論文 参考訳(メタデータ) (2022-01-23T22:00:54Z) - Few-shot Instruction Prompts for Pretrained Language Models to Detect
Social Biases [55.45617404586874]
我々は、事前訓練された言語モデル(LM)を誘導する数ショットの命令ベース手法を提案する。
大規模なLMは、微調整モデルとよく似た精度で、異なる種類の細粒度バイアスを検出できることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:19:52Z) - Self-training with Few-shot Rationalization: Teacher Explanations Aid
Student in Few-shot NLU [88.8401599172922]
タスク固有のラベルと合理的性に制限された自己学習言語モデルに基づくフレームワークを開発する。
ニューラルネットワークの性能は,その合理的な予測を意識することで,大幅に向上できることを示す。
論文 参考訳(メタデータ) (2021-09-17T00:36:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。