論文の概要: Optimising Language Models for Downstream Tasks: A Post-Training Perspective
- arxiv url: http://arxiv.org/abs/2506.20917v1
- Date: Thu, 26 Jun 2025 00:49:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.927128
- Title: Optimising Language Models for Downstream Tasks: A Post-Training Perspective
- Title(参考訳): 下流タスクのための言語モデルの最適化:訓練後の視点
- Authors: Zhengyan Shi,
- Abstract要約: 言語モデル(LM)は、NLPにおいて顕著な能力を示している。
しかし、それらを効率的かつ堅牢に特定のタスクに適用することは、依然として困難である。
この論文は、下流アプリケーションにLMを適応させる一連の方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models (LMs) have demonstrated remarkable capabilities in NLP, yet adapting them efficiently and robustly to specific tasks remains challenging. As their scale and complexity grow, fine-tuning LMs on labelled data often underutilizes available unlabelled data, leads to overfitting on small task-specific sets, and imposes significant computational costs. These limitations hamper their application to the open-ended landscape of real-world language tasks. This thesis proposes a series of methods to better adapt LMs to downstream applications. First, we explore strategies for extracting task-relevant knowledge from unlabelled data, introducing a novel continued pre-training technique that outperforms state-of-the-art semi-supervised approaches. Next, we present a parameter-efficient fine-tuning method that substantially reduces memory and compute costs while maintaining competitive performance. We also introduce improved supervised fine-tuning methods that enable LMs to better follow instructions, especially when labelled data is scarce, enhancing their performance across a range of NLP tasks, including open-ended generation. Finally, we develop new evaluation methods and benchmarks, such as multi-hop spatial reasoning tasks, to assess LM capabilities and adaptation more comprehensively. Through extensive empirical studies across diverse NLP tasks, our results demonstrate that these approaches substantially improve LM robustness, efficiency, and generalization, making them more adaptable to a broad range of applications. These advances mark a significant step towards more robust and efficient LMs, bringing us closer to the goal of artificial general intelligence.
- Abstract(参考訳): 言語モデル(LM)は、NLPにおいて顕著な能力を示してきたが、特定のタスクに効率的かつ堅牢に適応することは、依然として困難である。
スケールと複雑さが増大するにつれて、ラベル付きデータに微調整されたLMは、しばしば使用できないデータを未使用にし、小さなタスク固有のセットに過度に適合させ、計算コストを大幅に上乗せする。
これらの制限は、現実世界の言語タスクのオープンな視野への応用を妨げる。
この論文は、下流アプリケーションにLMを適応させる一連の方法を提案する。
まず、未学習データからタスク関連知識を抽出し、最先端の半教師付きアプローチより優れた継続的な事前学習手法を提案する。
次に、競合性能を維持しつつ、メモリと計算コストを大幅に削減するパラメータ効率の良い微調整手法を提案する。
また,ラベル付きデータが少ない場合,特に命令の追従性を向上する教師付き微調整手法を導入し,オープンエンド生成を含む様々なNLPタスクにおける性能を向上させる。
最後に,マルチホップ空間推論タスクなどの新しい評価手法とベンチマークを開発し,LMの能力と適応性をより包括的に評価する。
多様なNLPタスクに対する広範な実証研究を通じて、これらの手法がLMの堅牢性、効率性、一般化を大幅に改善し、広範囲のアプリケーションに適応できることを実証した。
これらの進歩は、より堅牢で効率的なLMに向けた重要な一歩であり、私たちは人工知能の目標に近づいている。
関連論文リスト
- LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Improving Multi-task Learning via Seeking Task-based Flat Regions [44.958631367332615]
MTL(Multi-Task Learning)は、ディープニューラルネットワークをトレーニングするための強力な学習パラダイムである。
MTLには、究極の勾配降下方向を導出するためにタスク勾配を操作することに焦点を当てた、新たな作業ラインがある。
単タスク学習におけるモデル一般化能力を向上するシャープネス認識最小化という,最近導入されたトレーニング手法を活用することを提案する。
論文 参考訳(メタデータ) (2022-11-24T17:19:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。