論文の概要: Easy Adaptation: An Efficient Task-Specific Knowledge Injection Method for Large Models in Resource-Constrained Environments
- arxiv url: http://arxiv.org/abs/2512.17771v1
- Date: Fri, 19 Dec 2025 16:43:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.491842
- Title: Easy Adaptation: An Efficient Task-Specific Knowledge Injection Method for Large Models in Resource-Constrained Environments
- Title(参考訳): 簡単な適応:資源制約環境における大規模モデルの効率的なタスク特化知識注入法
- Authors: Dong Chen, Zhengqing Hu, Shixing Zhao, Yibo Guo,
- Abstract要約: 本稿では,不適合なデータ分布を補うために,特定小モデル (SSM) を設計する EA (Easy Adaptation) を提案する。
EAは、LMパラメータにアクセスすることなく、多様なタスクにおけるPEFTのパフォーマンスと一致し、最小限のリソースしか必要としない。
- 参考スコア(独自算出の注目度): 5.931361847732472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the enormous parameter scale endows Large Models (LMs) with unparalleled performance, it also limits their adaptability across specific tasks. Parameter-Efficient Fine-Tuning (PEFT) has emerged as a critical approach for effectively adapting LMs to a diverse range of downstream tasks. However, existing PEFT methods face two primary challenges: (1) High resource cost. Although PEFT methods significantly reduce resource demands compared to full fine-tuning, it still requires substantial time and memory, making it impractical in resource-constrained environments. (2) Parameter dependency. PEFT methods heavily rely on updating a subset of parameters associated with LMs to incorporate task-specific knowledge. Yet, due to increasing competition in the LMs landscape, many companies have adopted closed-source policies for their leading models, offering access only via Application Programming Interface (APIs). Whereas, the expense is often cost-prohibitive and difficult to sustain, as the fine-tuning process of LMs is extremely slow. Even if small models perform far worse than LMs in general, they can achieve superior results on particular distributions while requiring only minimal resources. Motivated by this insight, we propose Easy Adaptation (EA), which designs Specific Small Models (SSMs) to complement the underfitted data distribution for LMs. Extensive experiments show that EA matches the performance of PEFT on diverse tasks without accessing LM parameters, and requires only minimal resources.
- Abstract(参考訳): 巨大なパラメータスケールは、非並列性能を持つ大規模モデル(LM)を許容する一方で、特定のタスクへの適応性も制限する。
パラメータ効率の良いファインチューニング(PEFT)は、様々な下流タスクにLMを効果的に適用するための重要なアプローチとして現れている。
しかし,既存のPEFT手法は,(1)高コスト化という2つの課題に直面している。
PEFT法は完全な微調整に比べて資源需要を著しく削減するが、それでもかなりの時間とメモリを必要とするため、資源制約のある環境では実用的ではない。
(2)パラメータ依存。
PEFT法は、タスク固有の知識を組み込むために、LMに関連するパラメータのサブセットを更新することに大きく依存している。
しかし、LMsの世界では競争が激化しているため、多くの企業が主要なモデルにクローズドソースのポリシーを採用しており、アプリケーションプログラミングインタフェース(API)を通してのみアクセスを提供している。
しかし、LMの微調整プロセスは非常に遅いため、コストが抑えられ、持続し難い場合が多い。
小さいモデルは一般にLMよりもはるかに悪い性能を示すが、最小限の資源しか必要とせず、特定の分布において優れた結果が得られる。
そこで本研究では,不適合なデータ分布を補完するSSMを設計する EA (Easy Adaptation) を提案する。
広範囲にわたる実験の結果,PEFT は LM パラメータにアクセスすることなく,様々なタスクにおける PEFT のパフォーマンスと一致し,最小限のリソースしか必要としないことがわかった。
関連論文リスト
- Data Efficient Adaptation in Large Language Models via Continuous Low-Rank Fine-Tuning [34.343514432589586]
本稿では,ローランド適応(LoRA)と連続的な微調整戦略を統合する新しいフレームワークであるtextbfを提案する。
15の多様なデータセットの実験は、DEALがベースラインメソッドを一貫して上回っていることを示している。
これらの結果は,大規模言語モデルにおける継続的適応に向けた我々のアプローチの可能性を示している。
論文 参考訳(メタデータ) (2025-09-23T12:55:57Z) - Efficient LLM Collaboration via Planning [56.081879390960204]
小規模で大規模なモデルでは、プランナーと実行担当者として交代で行動し、タスクを協調的に解決するために、多段階のカスケードでプランを交換する。
私たちはCOPEが大規模プロプライエタリモデルに匹敵するパフォーマンスを実現し,推論APIのコストを大幅に削減できることを実証した。
論文 参考訳(メタデータ) (2025-06-13T08:35:50Z) - Efficient Domain Adaptation of Multimodal Embeddings using Constrastive Learning [0.08192907805418582]
現在のアプローチでは、タスク固有の適応なしに事前訓練されたモデルを使用する際にサブパー結果を得るか、あるいは微調整のためにかなりの計算資源を必要とする。
本稿では,高コストな微調整処理を必要とせず,基礎的なマルチモーダルな埋め込みを下流タスクに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-04T06:30:12Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - 3-in-1: 2D Rotary Adaptation for Efficient Finetuning, Efficient Batching and Composability [6.451743797015637]
大規模言語モデル (LLM) に適応するために, 簡単な2次元回転を用いた新しい手法RoAdを導入する。
RoAdはパラメータ効率が非常に高く、8つの常識推論タスク、4つの算術推論タスクと0.1%のトレーニング可能なパラメータを提供する。
論文 参考訳(メタデータ) (2024-08-28T08:45:29Z) - Parameter-Efficient Fine-Tuning for Large Models: A Comprehensive Survey [18.00772798876708]
PEFT(Efficient Fine-Tuning)は、様々な下流タスクに対して大きなモデルを効率的に調整することで、実用的なソリューションを提供する。
PEFTは、訓練済みの大規模モデルのパラメータを特定のタスクやドメインに適応させるプロセスを指す。
本稿では,様々なPEFTアルゴリズムの総合的な研究を行い,その性能と計算オーバーヘッドについて検討する。
論文 参考訳(メタデータ) (2024-03-21T17:55:50Z) - MobiLlama: Towards Accurate and Lightweight Fully Transparent GPT [87.4910758026772]
近年のLarge Language Models (LLM) 開発において,"Bigger the Better" が主流となっている。
本稿では、リソース制約のあるデバイスに対して、正確かつ効率的なSLM(Small Language Models)を設計する上での課題に対処し、"less is more"パラダイムについて考察する。
論文 参考訳(メタデータ) (2024-02-26T18:59:03Z) - Parameter-Efficient Fine-Tuning Methods for Pretrained Language Models:
A Critical Review and Assessment [12.674032145667763]
本稿では,事前学習言語モデル(PLM)のためのPEFT(Efficient Fine-Tuning)手法の総合的,体系的なレビューを行う。
PEFTは、完全な微調整に匹敵する性能を保ちながら、微調整パラメータとメモリ使用量を削減し、効果的なソリューションを提供する。
パラメータ効率とメモリ効率の効率性をよりよく理解するために,いくつかの代表的PEFT法を用いて実験を行った。
論文 参考訳(メタデータ) (2023-12-19T13:31:24Z) - Exploring Parameter-Efficient Fine-Tuning Techniques for Code Generation with Large Language Models [11.845239346943067]
パラメータ効率のよい微調整(PEFT)は、大規模言語モデル(LLM)をタスク固有のデータに効率的に専門化するための有望なアプローチである。
本研究は,PEFTと量子化を組み合わせることで,より大きなLCMをチューニングし,メモリ使用量を大幅に削減する可能性を明らかにする。
論文 参考訳(メタデータ) (2023-08-21T04:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。