論文の概要: PEFT-Bench: A Parameter-Efficient Fine-Tuning Methods Benchmark
- arxiv url: http://arxiv.org/abs/2511.21285v1
- Date: Wed, 26 Nov 2025 11:18:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.075464
- Title: PEFT-Bench: A Parameter-Efficient Fine-Tuning Methods Benchmark
- Title(参考訳): PEFT-Bench:パラメータ効率の良いファインチューニング手法ベンチマーク
- Authors: Robert Belanec, Branislav Pecher, Ivan Srba, Maria Bielikova,
- Abstract要約: PEFT-Benchは,自己回帰LDM上での多様なPEFT手法の評価のための,統一的なエンドツーエンドベンチマークである。
27のNLPデータセットと6つのPEFTメソッドにまたがる使用法を示す。
PEFT Soft Score Penalties(PSCP)メトリクスも導入し、トレーニング可能なパラメータ、推論速度、メモリ使用率のトレーニングを考慮に入れます。
- 参考スコア(独自算出の注目度): 8.366144731921489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the state-of-the-art performance of Large Language Models (LLMs) achieved on many tasks, their massive scale often leads to high computational and environmental costs, limiting their accessibility. Parameter-efficient fine-tuning (PEFT) methods address this challenge by reducing the number of trainable parameters while maintaining strong downstream performance. Despite the increased development in PEFT methods, current evaluations remain limited (in terms of evaluated models and datasets) and difficult to reproduce. To bridge this gap, we introduce PEFT-Bench, a unified end-to-end benchmark for evaluating diverse PEFT methods on autoregressive LLMs. We demonstrate its usage across 27 NLP datasets and 6 PEFT methods. To account for different PEFT training and inference factors, we also introduce the PEFT Soft Score Penalties (PSCP) metric, which takes trainable parameters, inference speed, and training memory usage into account.
- Abstract(参考訳): 大規模言語モデル(LLM)の最先端性能は多くのタスクで達成されているにもかかわらず、その大規模化はしばしば高い計算と環境コストをもたらし、アクセシビリティを制限している。
パラメータ効率のよい微調整(PEFT)手法は、強力な下流性能を維持しながらトレーニング可能なパラメータの数を減らし、この問題に対処する。
PEFT法の発展にもかかわらず、現在の評価は(評価モデルやデータセットの観点から)限定的であり、再現が困難である。
このギャップを埋めるために,PEFT-Benchを導入し,自動回帰LDM上での多様なPEFT手法の評価を行う。
27のNLPデータセットと6つのPEFTメソッドにまたがる使用法を示す。
また、異なるPEFTトレーニングと推論要因を考慮し、トレーニング可能なパラメータ、推論速度、トレーニングメモリ使用率を考慮に入れたPEFT Soft Score Penalties(PSCP)メトリクスも導入する。
関連論文リスト
- TS-PEFT: Token-Selective Parameter-Efficient Fine-Tuning with Learnable Threshold Gating [8.102270371993411]
本稿では,関数 S が位置指標のサブセットにPEFT を選択的に適用する Token-Selective PEFT (TS-PEFT) という新しいパラダイムを提案する。
実験の結果,すべての指標に対するPEFTの非差別的適用は過剰であるだけでなく,非生産的である可能性が示唆された。
論文 参考訳(メタデータ) (2025-11-20T08:41:20Z) - Look Within or Look Beyond? A Theoretical Comparison Between Parameter-Efficient and Full Fine-Tuning [50.05207363001145]
フルファインチューニング(FFT)に匹敵する性能を実現するPEFT法
最適化理論に基づく表現能力とロバスト性の観点から,PEFTとFFTの特性を比較した。
分類,生成,推論,微調整タスクを含む15のデータセットの実験と,11の逆検定セットによる理論の検証を行った。
論文 参考訳(メタデータ) (2025-05-28T13:35:12Z) - Light-PEFT: Lightening Parameter-Efficient Fine-Tuning via Early Pruning [17.032155725171958]
本稿では,基礎モデルの仮設初期計画とPEFTの多官能初期計画の2つの手法を含むLight-PEFTフレームワークを提案する。
PEFT法を直接利用するのに対し、Light-PEFTはトレーニングと推論の高速化を実現し、メモリ使用量を削減し、同等のパフォーマンスを維持する。
論文 参考訳(メタデータ) (2024-06-06T07:03:29Z) - An Empirical Study of Parameter Efficient Fine-tuning on Vision-Language Pre-train Model [33.853380101736306]
PEFTの自然な期待は、様々なPEFTの性能がデータサイズと微調整可能なパラメータサイズに肯定的な関係があることである。
このような直感は、下流のデータとタスクが事前トレーニングと一致していない場合にのみ成立する。
事前トレーニングと整合した下流の微調整では、データサイズはもはやパフォーマンスに影響を与えず、微調整可能なパラメータサイズの影響は単調ではない。
論文 参考訳(メタデータ) (2024-03-13T11:33:38Z) - Parameter-Efficient Fine-Tuning for Pre-Trained Vision Models: A Survey and Benchmark [95.0484665958967]
事前学習された視覚モデル(PVM)は、幅広い下流の視覚タスクに顕著な適応性を示した。
これらのモデルが数十億または数兆のパラメータにスケールするにつれて、計算と記憶の要求が高いため、従来の完全な微調整はますます非現実的になっている。
パラメータ効率の良いファインチューニング(PEFT)は、モデルパラメータを最小限に調整しながら、完全なファインチューニングに匹敵するパフォーマンスを実現するための、有望な代替手段として登場した。
論文 参考訳(メタデータ) (2024-02-03T19:12:20Z) - Parameter-Efficient Fine-Tuning Methods for Pretrained Language Models:
A Critical Review and Assessment [12.674032145667763]
本稿では,事前学習言語モデル(PLM)のためのPEFT(Efficient Fine-Tuning)手法の総合的,体系的なレビューを行う。
PEFTは、完全な微調整に匹敵する性能を保ちながら、微調整パラメータとメモリ使用量を削減し、効果的なソリューションを提供する。
パラメータ効率とメモリ効率の効率性をよりよく理解するために,いくつかの代表的PEFT法を用いて実験を行った。
論文 参考訳(メタデータ) (2023-12-19T13:31:24Z) - LoRAPrune: Structured Pruning Meets Low-Rank Parameter-Efficient Fine-Tuning [56.88751562302793]
低ランク適応 (LoRA) が大型言語モデル (LLM) に登場した。
LoRAPruneは、高度にメモリ効率の良い正確な構造化プルーンドモデルを提供する新しいフレームワークである。
LoRAPruneはWikiText2では4.81、TBでは3.46、メモリ使用量は52.6%減少している。
論文 参考訳(メタデータ) (2023-05-28T15:15:48Z) - AutoPEFT: Automatic Configuration Search for Parameter-Efficient
Fine-Tuning [77.61565726647784]
ニューラルアーキテクチャ検索の進歩により,自動PEFT設定選択のためのAutoPEFTを提案する。
本稿では,AutoPEFTが検出した構成が既存のPEFT法よりも大幅に優れており,FFTと同等かそれ以上であることを示す。
論文 参考訳(メタデータ) (2023-01-28T08:51:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。