論文の概要: Active Few-Shot Learning for Text Classification
- arxiv url: http://arxiv.org/abs/2502.18782v1
- Date: Wed, 26 Feb 2025 03:30:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:58:02.214690
- Title: Active Few-Shot Learning for Text Classification
- Title(参考訳): テキスト分類のためのアクティブFew-Shot学習
- Authors: Saeed Ahmadnia, Arash Yousefi Jordehi, Mahsa Hosseini Khasheh Heyran, Seyed Abolghasem Mirroshandel, Owen Rambow, Cornelia Caragea,
- Abstract要約: LLM(Large Language Models)の台頭により、自然言語処理におけるFew-Shot Learning(FSL)メソッドの利用が促進された。
ラベルのないプールから有効なサポートインスタンスを識別する,アクティブな学習ベースのインスタンス選択機構を提案する。
- 参考スコア(独自算出の注目度): 43.58047311582709
- License:
- Abstract: The rise of Large Language Models (LLMs) has boosted the use of Few-Shot Learning (FSL) methods in natural language processing, achieving acceptable performance even when working with limited training data. The goal of FSL is to effectively utilize a small number of annotated samples in the learning process. However, the performance of FSL suffers when unsuitable support samples are chosen. This problem arises due to the heavy reliance on a limited number of support samples, which hampers consistent performance improvement even when more support samples are added. To address this challenge, we propose an active learning-based instance selection mechanism that identifies effective support instances from the unlabeled pool and can work with different LLMs. Our experiments on five tasks show that our method frequently improves the performance of FSL. We make our implementation available on GitHub.
- Abstract(参考訳): 大規模言語モデル(LLM)の台頭により、自然言語処理におけるFSL(Few-Shot Learning)メソッドの使用が増加し、限られたトレーニングデータを扱う場合でも許容可能なパフォーマンスを実現している。
FSLの目的は、学習過程において少数の注釈付きサンプルを効果的に活用することである。
しかし、FSLの性能は、不適切なサポートサンプルが選択されるときに損なわれる。
この問題は、少数のサポートサンプルに大きく依存しているため、より多くのサポートサンプルを追加しても、一貫したパフォーマンス改善を妨げている。
この課題に対処するために,ラベルのないプールから有効なサポートインスタンスを識別し,異なるLLMで作業可能な,アクティブな学習ベースのインスタンス選択機構を提案する。
5つの課題に対する実験により,本手法はFSLの性能をよく改善することが示された。
実装はGitHubで公開しています。
関連論文リスト
- Gradient Boosting Trees and Large Language Models for Tabular Data Few-Shot Learning [0.0]
大規模言語モデル(LLM)は機械学習(ML)に多くの新しいアプリケーションをもたらした
本研究は, LLMが有効な代替手段であることを示すものであるが, 性能評価に用いるベースラインの改善が期待できることを示す。
論文 参考訳(メタデータ) (2024-11-06T23:54:09Z) - Large Language Models Know What Makes Exemplary Contexts [42.90814615222177]
In-context Learning (ICL) は、Large Language Model (LLM) の発展において重要な機能であることが証明されている。
本稿では,LLMのための統合フレームワークを提案する。このフレームワークにより,影響力のあるインコンテキストのサンプルを自己選択してコンテキストを構成することができる。
論文 参考訳(メタデータ) (2024-08-14T12:32:41Z) - ParaICL: Towards Robust Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - Scaling Sentence Embeddings with Large Language Models [43.19994568210206]
本研究では,文埋め込み性能の向上を目的としたテキスト内学習手法を提案する。
提案手法では,従来のプロンプトに基づく表現手法を自己回帰モデルに適用する。
モデルサイズをスケールすることで、数千億以上のパラメータへのスケーリングが意味的なテキスト類似性タスクのパフォーマンスを損なうことが分かる。
論文 参考訳(メタデータ) (2023-07-31T13:26:03Z) - Adversarial Robustness of Prompt-based Few-Shot Learning for Natural
Language Understanding [23.458843951563978]
自然言語理解(NLU)タスクの目覚ましい結果を得るために,プロンプトベースの微調整を活用する。
敵の摂動に対するロバスト性を評価するために, 最先端のFSL法を幅広く検討した。
論文 参考訳(メタデータ) (2023-06-19T17:01:13Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Alleviating Over-smoothing for Unsupervised Sentence Representation [96.19497378628594]
本稿では,この問題を緩和するために,SSCL(Self-Contrastive Learning)というシンプルな手法を提案する。
提案手法は非常に単純で,様々な最先端モデルに拡張して,性能向上を図ることができる。
論文 参考訳(メタデータ) (2023-05-09T11:00:02Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - TAFSSL: Task-Adaptive Feature Sub-Space Learning for few-shot
classification [50.358839666165764]
本稿では,タスク適応機能サブスペース学習(TAFSSL)により,Few-Shot Learningシナリオの性能を大幅に向上させることができることを示す。
具体的には、挑戦的な miniImageNet と tieredImageNet ベンチマークにおいて、TAFSSL はトランスダクティブおよび半教師付き FSL 設定の両方で現在の状態を改善することができることを示しています。
論文 参考訳(メタデータ) (2020-03-14T16:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。