論文の概要: Distribution-Aligned Decoding for Efficient LLM Task Adaptation
- arxiv url: http://arxiv.org/abs/2509.15888v2
- Date: Fri, 26 Sep 2025 07:27:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 14:23:57.674867
- Title: Distribution-Aligned Decoding for Efficient LLM Task Adaptation
- Title(参考訳): 効率的なLLMタスク適応のための分散アライメントデコーディング
- Authors: Senkang Hu, Xudong Han, Jinqi Jiang, Yihang Tao, Zihan Fang, Yong Dai, Sam Tak Wu Kwong, Yuguang Fang,
- Abstract要約: タスク適応を出力分配アライメントとして再キャストする。
本稿では,PEFT互換で理論上は基礎的手法であるステアリングベクトル復号法(SVD)を紹介する。
3つのタスクと9つのベンチマークで、SVDは4つの標準PEFTメソッドと組み合わせることで、最大5ポイントの多重選択精度を向上させる。
- 参考スコア(独自算出の注目度): 20.445238515855795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adapting billion-parameter language models to a downstream task is still costly, even with parameter-efficient fine-tuning (PEFT). We re-cast task adaptation as output-distribution alignment: the objective is to steer the output distribution toward the task distribution directly during decoding rather than indirectly through weight updates. Building on this view, we introduce Steering Vector Decoding (SVD), a lightweight, PEFT-compatible, and theoretically grounded method. We start with a short warm-start fine-tune and extract a task-aware steering vector from the Kullback-Leibler (KL) divergence gradient between the output distribution of the warm-started and pre-trained models. This steering vector is then used to guide the decoding process to steer the model's output distribution towards the task distribution. We theoretically prove that SVD is first-order equivalent to the gradient step of full fine-tuning and derive a globally optimal solution for the strength of the steering vector. Across three tasks and nine benchmarks, SVD paired with four standard PEFT methods improves multiple-choice accuracy by up to 5 points and open-ended truthfulness by 2 points, with similar gains (1-2 points) on commonsense datasets without adding trainable parameters beyond the PEFT adapter. SVD thus offers a lightweight, theoretically grounded path to stronger task adaptation for large language models.
- Abstract(参考訳): パラメータ効率の良い微調整(PEFT)であっても、数十億パラメータの言語モデルをダウンストリームタスクに適応することは依然としてコストがかかる。
我々は,タスク適応を出力分配アライメントとして再キャストする。目的は,重み更新によって間接的にではなく,復号時に直接タスク分布に向けて出力分布を操ることである。
この観点から、我々は、軽量でPEFT互換で理論的に基礎的手法であるステアリングベクトル復号法(SVD)を導入する。
まず、短時間のウォームスタートファインチューンから始まり、ウォームスタートモデルと事前学習モデルの出力分布間のKL(Kullback-Leibler)偏差勾配からタスク認識ステアリングベクトルを抽出する。
このステアリングベクトルはデコードプロセスの誘導に使われ、モデルの出力分布をタスク分布へ誘導する。
理論上、SVDはフル微調整の勾配ステップと同値であり、ステアリングベクトルの強度に対する大域的最適解を導出する。
3つのタスクと9つのベンチマークで、SVDは4つの標準PEFTメソッドと組み合わせて、PEFTアダプタ以外のトレーニング可能なパラメータを追加することなく、複数の選択精度を最大5ポイント改善し、コモンセンスデータセット上でも同様のゲイン(1-2ポイント)を2ポイント改善する。
SVDは、大規模言語モデルのタスク適応性を高めるために、軽量で理論的に基礎付けられた経路を提供する。
関連論文リスト
- Accelerating Diffusion LLMs via Adaptive Parallel Decoding [50.9948753314669]
並列にサンプリングされたトークンの数を動的に調整する新しい手法であるアダプティブ並列復号法(APD)を導入する。
APDは、ダウンストリームベンチマークで最小限の品質劣化を伴って、非常に高いスループットを提供する。
論文 参考訳(メタデータ) (2025-05-31T06:10:10Z) - Skip Tuning: Pre-trained Vision-Language Models are Effective and Efficient Adapters Themselves [123.07450481623124]
下流タスクに視覚言語モデルを適用するための新しいパラダイムとして,Skip Tuningを提案する。
既存のPTやアダプタベースの方法とは異なり、Skip Tuningは追加のコンテキストベクトルやアダプタモジュールを導入することなく、FTベースラインにLayer-wise Skipping(LSkip)とClass-wise Skipping(CSkip)を適用する。
論文 参考訳(メタデータ) (2024-12-16T07:33:23Z) - Multi-Task Model Merging via Adaptive Weight Disentanglement [69.7292615212444]
モデルマージのための適応重み分散法を提案する。
余剰ベクトルの抽出に成功し, 減算後, タスクベクトルは頑健な性能を維持した。
論文 参考訳(メタデータ) (2024-11-27T20:08:55Z) - iConFormer: Dynamic Parameter-Efficient Tuning with Input-Conditioned Adaptation [15.97351561456467]
本稿では,iConFormerと呼ばれる新しいPEFT手法,入出力トランスフォーマーを提案する。
インスタンスレベルの特徴変換を可能にする動的アダプタに,入出力ネットワーク(iCoN)を導入する。
具体的に言うと、iCoNは各機能に対してチャネルワイドな畳み込みカーネルを生成し、それを適応畳み込みプロセスを使って変換し、下流タスクに適したタスク固有できめ細かな詳細を効果的にキャプチャする。
論文 参考訳(メタデータ) (2024-09-04T16:06:23Z) - Fast Trainable Projection for Robust Fine-Tuning [36.51660287722338]
ロバスト微調整は、競争力のある分散内分散(ID)性能を達成することを目的としている。
プロジェクションベースの微調整は頑健な微調整に成功している。
Fast Trainable Projectionはプロジェクションベースのファインチューニングアルゴリズムである。
論文 参考訳(メタデータ) (2023-10-29T22:52:43Z) - DoT: An efficient Double Transformer for NLP tasks with tables [3.0079490585515343]
DoTは、問題を2つのサブタスクに分解するダブルトランスフォーマーモデルである。
少ない精度でDoTはトレーニング時間と推論時間を少なくとも50%改善することを示した。
論文 参考訳(メタデータ) (2021-06-01T13:33:53Z) - Parameter-Efficient Transfer Learning with Diff Pruning [108.03864629388404]
diff pruningは、プリトレイン・ファインチューンフレームワーク内でパラメータ効率の高い転送学習を可能にするシンプルなアプローチです。
diff pruningで微調整されたモデルは、GLUEベンチマークで完全に微調整されたベースラインのパフォーマンスと一致します。
論文 参考訳(メタデータ) (2020-12-14T12:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。