論文の概要: What is Not in the Context? Evaluation of Few-shot Learners with
Informative Demonstrations
- arxiv url: http://arxiv.org/abs/2212.01692v1
- Date: Sat, 3 Dec 2022 21:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 15:01:23.078635
- Title: What is Not in the Context? Evaluation of Few-shot Learners with
Informative Demonstrations
- Title(参考訳): コンテキストにないものは何か?
Informative Demonstrations を用いたFew-shot学習者の評価
- Authors: Michal \v{S}tef\'anik and Marek Kadl\v{c}\'ik
- Abstract要約: コンテキスト内数ショット学習は、少数のインプット・アウトプット・デモから新しいタスクを学習する能力である。
本研究では,特定の情報的概念を共有するデモンストレーションを選択することで,文脈内学習から得られる少数の学習者の獲得を阻害する評価手法を提案する。
モデルのサイズに関わらず、既存の数発の学習者は、デモでそのような情報的概念を観察することの恩恵を享受できないことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models demonstrate an emergent ability to learn a new task
from a small number of input-output demonstrations, referred to as in-context
few-shot learning. However, recent work shows that in such settings, models
mainly learn to mimic the new task distribution, instead of the mechanics of
the new task. We argue that the commonly-used evaluation settings of few-shot
models utilizing a random selection of in-context demonstrations is not able to
disentangle models' ability to learn new skills from demonstrations, as most of
the such-selected demonstrations are not informative for prediction beyond
exposing the new task's input and output distribution.
Therefore, we introduce an evaluation technique that disentangles few-shot
learners' gain from in-context learning by picking the demonstrations sharing a
specific, informative concept with the predicted sample, in addition to the
performance reached by mainly non-informative samples. We find that regardless
of the model size, existing few-shot learners are not able to benefit from
observing such informative concepts in demonstrations. We also find that such
ability may not be obtained trivially by exposing the informative
demonstrations in the training process, leaving the challenge of training true
in-context learners open.
- Abstract(参考訳): 大規模言語モデルでは、少数のインプット・アウトプット・デモから新しいタスクを学習する能力を示す。
しかし、近年の研究では、モデルは主に新しいタスクの仕組みではなく、新しいタスクの分散を模倣することを学ぶことが示されている。
ランダムなインコンテキスト・デモの選び方を利用した少数ショット・モデルの一般的な評価設定は、新しいタスクの入力と出力の分布を露呈する以上の予測には役に立たないため、デモから新しいスキルを学習するモデルの能力を阻害することができない。
そこで本研究では,予測したサンプルと特定の有意義な概念を共有する実演を抽出し,学習者の文脈内学習から得られる数少ない学習者の利得を解消する評価手法を提案する。
モデルのサイズに関わらず、既存の数発の学習者は、デモでそのような情報的概念を観察することの恩恵を受けることができない。
また,学習過程における有意義な実演を露出させることで,そのような能力は自明に得られない可能性があり,真に文脈内学習者の訓練の課題は残されている。
関連論文リスト
- In-context Learning with Retrieved Demonstrations for Language Models: A Survey [23.24271704145876]
インコンテクスト学習者(ICL)は入力コンテキストでのデモを少しだけ行うだけで、新しいタスクに適応できる。
最近の開発では、固定された一連のデモを使う代わりに、各入力クエリに合わせたデモを検索する。
本稿では,検索モデル,検索訓練手順,推論アルゴリズムの異なる設計選択について論じ,比較する。
論文 参考訳(メタデータ) (2024-01-21T23:34:42Z) - CommonsenseVIS: Visualizing and Understanding Commonsense Reasoning
Capabilities of Natural Language Models [30.63276809199399]
本稿では,外部コモンセンス知識ベースを用いた視覚的説明システムであるCommonsenseVISについて述べる。
本システムでは,異なる概念とその基盤となる関係について,多段階の可視化とインタラクティブなモデル探索と編集を行う。
論文 参考訳(メタデータ) (2023-07-23T17:16:13Z) - Inverse Dynamics Pretraining Learns Good Representations for Multitask
Imitation [66.86987509942607]
このようなパラダイムを模倣学習でどのように行うべきかを評価する。
本稿では,事前学習コーパスがマルチタスクのデモンストレーションから成り立つ環境について考察する。
逆動力学モデリングはこの設定に適していると主張する。
論文 参考訳(メタデータ) (2023-05-26T14:40:46Z) - Robustness of Demonstration-based Learning Under Limited Data Scenario [54.912936555876826]
実証に基づく学習は、限られたデータシナリオ下で事前訓練された言語モデルの能力を刺激する大きな可能性を示している。
実演と予測の間に明確な整合性がないため、なぜこのような実演が学習プロセスに有益なのかは不明だ。
本稿では,実証に基づくシーケンスラベリングの頑健さを深く掘り下げるために,標準情報から直感的に有用な情報を徐々に取り除き,病理デモを設計する。
論文 参考訳(メタデータ) (2022-10-19T16:15:04Z) - Rethinking the Role of Demonstrations: What Makes In-Context Learning
Work? [112.72413411257662]
大規模言語モデル(LM)は、いくつかのインプットラベルペア(デモ)を条件付けして、新しいインプットの予測を行うことで、インコンテキストで学習することができる。
実演のラベルをランダムに置き換えることは、パフォーマンスをほとんど損なうものではない。
デモの他の側面が、エンドタスクのパフォーマンスの主要な要因であることに気付きました。
論文 参考訳(メタデータ) (2022-02-25T17:25:19Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Self-training with Few-shot Rationalization: Teacher Explanations Aid
Student in Few-shot NLU [88.8401599172922]
タスク固有のラベルと合理的性に制限された自己学習言語モデルに基づくフレームワークを開発する。
ニューラルネットワークの性能は,その合理的な予測を意識することで,大幅に向上できることを示す。
論文 参考訳(メタデータ) (2021-09-17T00:36:46Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。