論文の概要: LAUD: Integrating Large Language Models with Active Learning for Unlabeled Data
- arxiv url: http://arxiv.org/abs/2511.14738v1
- Date: Tue, 18 Nov 2025 18:31:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.262532
- Title: LAUD: Integrating Large Language Models with Active Learning for Unlabeled Data
- Title(参考訳): LAUD: ラベルなしデータのためのアクティブラーニングによる大規模言語モデルの統合
- Authors: Tzu-Hsuan Chou, Chun-Nan Chou,
- Abstract要約: 実世界のシナリオでは、ラベル付きデータがないため、実践者が良好なパフォーマンスのモデルを得ることができないことが多い。
ラベルなしデータセット(LAUD)のための大規模言語モデルとアクティブラーニングを統合した学習フレームワークを提案する。
実験により、LAUDから派生したLLMは、商品名分類タスクにおいてゼロショットまたは少数ショットの学習でLLMよりも優れていた。
- 参考スコア(独自算出の注目度): 2.0052993723676895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown a remarkable ability to generalize beyond their pre-training data, and fine-tuning LLMs can elevate performance to human-level and beyond. However, in real-world scenarios, lacking labeled data often prevents practitioners from obtaining well-performing models, thereby forcing practitioners to highly rely on prompt-based approaches that are often tedious, inefficient, and driven by trial and error. To alleviate this issue of lacking labeled data, we present a learning framework integrating LLMs with active learning for unlabeled dataset (LAUD). LAUD mitigates the cold-start problem by constructing an initial label set with zero-shot learning. Experimental results show that LLMs derived from LAUD outperform LLMs with zero-shot or few-shot learning on commodity name classification tasks, demonstrating the effectiveness of LAUD.
- Abstract(参考訳): 大規模言語モデル(LLM)は、事前学習データを超えて一般化する驚くべき能力を示しており、微調整 LLM は、人間レベル以上のパフォーマンスを向上することができる。
しかし、実世界のシナリオでは、ラベル付きデータが欠如しているため、実践者が良いパフォーマンスのモデルを得ることができないため、実践者は、しばしば退屈で非効率で、試行錯誤によって駆動されるプロンプトベースのアプローチに強く依存せざるを得ない。
ラベル付きデータの欠如を緩和するため,ラベルなしデータセット(LAUD)のアクティブラーニングにLLMを統合する学習フレームワークを提案する。
LAUDはゼロショット学習を用いた初期ラベルセットを構築することにより、コールドスタート問題を緩和する。
実験の結果,LAUD から派生した LLM は,商品名分類タスクにおいてゼロショットや少数ショットの学習で LLM よりも優れており,LAUD の有効性が示された。
関連論文リスト
- Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - LLMaAA: Making Large Language Models as Active Annotators [32.57011151031332]
本稿では,大規模な言語モデルをアノテータとして利用し,それをアクティブな学習ループに配置して,アノテートを効率的に行うLLMaAAを提案する。
我々は、エンティティ認識と関係抽出という、2つの古典的NLPタスクの実験と分析を行う。
LLMaAAでは、LLM生成ラベルからトレーニングされたタスク固有のモデルが、数百の注釈付きサンプルで教師より優れている。
論文 参考訳(メタデータ) (2023-10-30T14:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。