論文の概要: Semi-Supervised In-Context Learning: A Baseline Study
- arxiv url: http://arxiv.org/abs/2503.03062v1
- Date: Tue, 04 Mar 2025 23:52:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:54:01.001422
- Title: Semi-Supervised In-Context Learning: A Baseline Study
- Title(参考訳): 半教師付きインテクスト学習 : ベースライン研究
- Authors: Zhengyao Gu, Henry Peng Zou, Yankai Chen, Aiwei Liu, Weizhi Zhang, Philip S. Yu,
- Abstract要約: 本稿では,3段階の半教師付きインコンテキスト学習フレームワークを提案する。
Naive-SemiICLはICLプロンプトのための高信頼な自己生成デモをプロンプトする。
擬似宣言を反復的に洗練するアノテーションアプローチである IterPSD は、分類タスクにおいて最大6.8%の利得を達成している。
- 参考スコア(独自算出の注目度): 37.62305582749307
- License:
- Abstract: Most existing work in data selection for In-Context Learning (ICL) has focused on constructing demonstrations from ground truth annotations, with limited attention given to selecting reliable self-generated annotations. In this work, we propose a three-step semi-supervised ICL framework: annotation generation, demonstration selection, and semi-supervised inference. Our baseline, Naive-SemiICL, which prompts select high-confidence self-generated demonstrations for ICL prompting, outperforms a 16-shot baseline by an average of 9.94% across 16 datasets. We further introduce IterPSD, an annotation approach that refines pseudo-demonstrations iteratively, achieving up to 6.8% additional gains in classification tasks. Lastly, we reveal a scaling law for semi-supervised ICL, where models achieve optimal performance with over 1,000 demonstrations.
- Abstract(参考訳): In-Context Learning (ICL)のデータ選択における既存の作業は、信頼できる自己生成アノテーションの選択に限定して、基底真理アノテーションからデモを構築することに重点を置いている。
本研究では,アノテーション生成,デモ選択,半教師付き推論という3段階の半教師付きICLフレームワークを提案する。
当社のベースラインであるNaive-SemiICLは、ICLのプロンプトで高信頼の自己生成デモを実行し、16データセットで平均9.94%の精度で16ショットベースラインを上回ります。
さらに、擬似記述を反復的に洗練するアノテーション手法であるIterPSDを導入し、分類タスクにおいて最大6.8%の利得を達成した。
最後に,1000以上の実験を行い,モデルが最適性能を達成する半教師付きICLのスケーリング法則を明らかにする。
関連論文リスト
- SelfPrompt: Confidence-Aware Semi-Supervised Tuning for Robust Vision-Language Model Adaptation [23.4909421082857]
SelfPromptは、半教師付き学習環境における視覚言語モデル(VLM)の新しいプロンプトチューニング手法である。
疑似ラベル精度を向上させるクラスタ誘導擬似ラベリング手法を提案する。
また,信頼性を意識した半教師付き学習モジュールを提案する。
論文 参考訳(メタデータ) (2025-01-24T00:31:01Z) - PICLe: Pseudo-Annotations for In-Context Learning in Low-Resource Named Entity Detection [56.916656013563355]
In-context Learning (ICL)により、大規模言語モデルでは、デモをほとんど使わずにタスクを実行することができる。
PICLeは、ノイズの多い擬似アノテーション付き実演によるインコンテキスト学習のためのフレームワークである。
バイオメディカルな5つのNEDデータセット上でPICLeを評価し,PICLeが低リソース環境でICLより優れていることを示す。
論文 参考訳(メタデータ) (2024-12-16T16:09:35Z) - Mixtures of In-Context Learners [18.920361190065556]
本稿では,実験のサブセットを専門家として扱う新しい手法を提案し,その出力分布をマージする重み付け関数を学習する。
実験では,強いベースラインのセットと比較して,7つの分類データセットのうち5つの性能改善を示す。
MoICLはドメイン外(最大+11%)、不均衡(最大+49%)、ノイズの多いデモ(最大+38%)、あるいはデータセットからこれらをフィルタリングすることができる。
論文 参考訳(メタデータ) (2024-11-05T06:02:41Z) - DemoShapley: Valuation of Demonstrations for In-Context Learning [20.26604061802236]
インコンテキスト学習(ICL)を利用した大規模言語モデル(LLM)は、タスク固有の微調整を必要とせずに、様々なタスク間で数ショットの学習を行う新しいベンチマークを設定した。
我々は、Data Shapleyの評価定理にインスパイアされたDemoShapleyを紹介する。
この結果から,DemoShapleyは精度と公平性の観点からモデル性能を向上するだけでなく,コンテキスト内デモとは異なる領域からのクエリを一般化することがわかった。
論文 参考訳(メタデータ) (2024-10-10T01:35:03Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Self-ICL: Zero-Shot In-Context Learning with Self-Generated
Demonstrations [38.4166247280112]
Self-ICLは、ゼロショットICLを実行するためにLMの固有の機能をブートストラップするフレームワークである。
Self-ICLは平均精度と頭部比較の両方でゼロショットベースラインを上回っている。
論文 参考訳(メタデータ) (2023-05-24T11:22:34Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - Z-ICL: Zero-Shot In-Context Learning with Pseudo-Demonstrations [97.41375480696972]
そこで,Z-ICLを提案する。Z-ICL,Z-ICLは,与えられたテスト入力に対して擬似デモを構築することでギャップを埋める新しいゼロショット方式である。
9つの分類データセットの評価は、Z-ICLが従来のゼロショット法よりも有意差で優れていたことを示している。
論文 参考訳(メタデータ) (2022-12-19T21:34:26Z) - Self-Generated In-Context Learning: Leveraging Auto-regressive Language
Models as a Demonstration Generator [22.532627423361177]
自己生成型インコンテキスト学習(SG-ICL)は、PLM自体からインコンテキスト学習のためのデモを生成する。
我々は、SG-ICLがゼロショット学習を著しく上回り、一般的に約0.6金のトレーニングサンプルの価値があることを示した。
論文 参考訳(メタデータ) (2022-06-16T10:52:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。