論文の概要: GaLLoP: Gradient-based Sparse Learning on Low-Magnitude Parameters
- arxiv url: http://arxiv.org/abs/2510.19778v1
- Date: Wed, 22 Oct 2025 17:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.219933
- Title: GaLLoP: Gradient-based Sparse Learning on Low-Magnitude Parameters
- Title(参考訳): GaLLoP:低次パラメータに基づく勾配に基づくスパース学習
- Authors: Anand Choudhary, Yasser Sulaıman, Lukas Mauch, Ghouthi Boukli Hacene, Fabien Cardinaux, Antoine Bosselut,
- Abstract要約: GaLLoP: 低緯度パラメータによる勾配に基づくスパース学習。
本稿では,GaLLoP: Gradient-based Sparse Learning on Low-Magnitude Parametersを提案する。
- 参考スコア(独自算出の注目度): 20.34415141254838
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sparse fine-tuning techniques adapt LLMs to downstream tasks by only tuning a sparse subset of model parameters. However, the effectiveness of sparse adaptation depends on optimally selecting the model parameters to be fine-tuned. In this work, we introduce a novel sparse fine-tuning technique named GaLLoP: Gradient-based Sparse Learning on Low-Magnitude Parameters, which fine-tunes only those model parameters which have the largest gradient magnitudes on downstream tasks and the smallest pre-trained magnitudes, intuitively prioritizing parameters that are highly task-relevant, but minimally disruptive to pre-trained knowledge. Our experimentation with LLaMA3 8B and Gemma 2B as base models shows that GaLLoP consistently improves or matches the in-distribution as well as out-of-distribution performance obtained via the usage of other leading parameter-efficient fine-tuning techniques, including LoRA, DoRA, and SAFT. Our analysis demonstrates that GaLLoP mitigates catastrophic forgetting and memorization of task data, as important pre-trained parameters remain unchanged, and stabilizes performance relative to other fine-tuning techniques, robustly generalizing across most random seeds.
- Abstract(参考訳): スパース細調整技術は、モデルパラメータのスパースサブセットをチューニングするだけで、下流タスクにLLMを適用する。
しかし、スパース適応の有効性は、微調整されるモデルパラメータを最適に選択することに依存する。
この手法は、下流のタスクで最大の勾配等級と最小の事前学習等級を持つモデルパラメータのみを微調整し、タスク関連性の高いパラメータを直感的に優先順位付けする。
LLaMA3 8B と Gemma 2B をベースモデルとして実験した結果,GaLLoP は,LoRA,DORA,SAFT など,他のパラメータ効率の高い微調整技術を用いて得られる分布内および分布外性能を一貫して改善し,一致させた。
分析の結果,GaLLoPは重要な事前学習パラメータが変化しないため,タスクデータの破滅的忘れと記憶を緩和し,他の微調整技術と比較して性能を安定させ,ほとんどのランダムな種子を安定的に一般化することを示した。
関連論文リスト
- Robust and Efficient Fine-tuning of LLMs with Bayesian Reparameterization of Low-Rank Adaptation [17.649599011681712]
大規模言語モデル(LLM)は、その巨大なサイズのため、リソース集約性が高いため、微調整が可能である。
本稿では,評価器の分散を低減し,最終的なモデル出力の安定性を高めるために,低ランク微調整における効果的なパラメータ化の重要性を強調した。
モンテカルロ推定を応用して,低次パラメータの非バイアス後推定を低次分散で学習する,効率的な微調整手法であるモンテクロラを提案する。
論文 参考訳(メタデータ) (2024-11-07T01:31:48Z) - LoRTA: Low Rank Tensor Adaptation of Large Language Models [70.32218116940393]
Low Rank Adaptation (LoRA) は、PEFT (Efficient Fine Tuning) 法として人気がある。
よりコンパクトで柔軟な表現を可能にする高階Candecomp/Parafac(CP)分解を提案する。
本手法は,比較性能を維持しつつパラメータ数を削減できる。
論文 参考訳(メタデータ) (2024-10-05T06:59:50Z) - SaRA: High-Efficient Diffusion Model Fine-tuning with Progressive Sparse Low-Rank Adaptation [52.6922833948127]
本研究では,事前学習した拡散モデルにおけるパラメータの重要性について検討する。
本稿では,これらの非効率パラメータをフル活用するための新しいモデル微調整法を提案する。
本手法は,下流アプリケーションにおける事前学習モデルの生成能力を向上する。
論文 参考訳(メタデータ) (2024-09-10T16:44:47Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - LoRAPrune: Structured Pruning Meets Low-Rank Parameter-Efficient Fine-Tuning [56.88751562302793]
低ランク適応 (LoRA) が大型言語モデル (LLM) に登場した。
LoRAPruneは、高度にメモリ効率の良い正確な構造化プルーンドモデルを提供する新しいフレームワークである。
LoRAPruneはWikiText2では4.81、TBでは3.46、メモリ使用量は52.6%減少している。
論文 参考訳(メタデータ) (2023-05-28T15:15:48Z) - Know Where You're Going: Meta-Learning for Parameter-Efficient
Fine-tuning [34.66092282348687]
そこで本研究では,微調整手法の究極的な選択を考慮に入れれば,パラメータ効率の高い微調整性能が向上することを示す。
パラメータ効率の良い微調整のための事前学習モデルを作成し,NERファインチューニングにおける最大1.7ポイントのゲインを得た。
論文 参考訳(メタデータ) (2022-05-25T02:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。