論文の概要: Targeted Efficient Fine-tuning: Optimizing Parameter Updates with Data-Driven Sample Selection
- arxiv url: http://arxiv.org/abs/2403.08484v2
- Date: Mon, 18 Nov 2024 07:32:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:29:50.332389
- Title: Targeted Efficient Fine-tuning: Optimizing Parameter Updates with Data-Driven Sample Selection
- Title(参考訳): データ駆動サンプル選択によるパラメータ更新の最適化
- Authors: Ming Dong, Kang Xue, Bolong Zheng, Tingting He,
- Abstract要約: FISHマスクのサンプル-パラメータ対選択を最適化するために、反復距離減少(IRD)アルゴリズムを提案する。
GLUEベンチマークを用いて提案手法の有効性と合理性を示す。
- 参考スコア(独自算出の注目度): 8.626228174152365
- License:
- Abstract: Fine-tuning all parameters of Large Language Models (LLMs) is computationally expensive. Parameter-Efficient Fine-Tuning (PEFT) methods address this by selectively fine-tuning specific parameters. Most of the parameter efficient fine-tuning (PEFT) methods center on selecting or introducing a set of parameters to be fine-tuned. However, there are few methods that consider the impact of data samples on parameter selecting. Representative data driven methods include FISH Mask based method, which randomly selects a portion of data samples as a basis when selecting parameters. However, this random data sample selection method cannot select optimal parameters for unstable data distribution. In this work, we introduce a data-centric approach and propose the Iterative Range Decreasing (IRD) algorithm to optimize the sample-parameter pair selection in FISH Mask. IRD iteratively refines the selection by identifying subsets of samples and parameters exhibiting higher Fisher information. We demonstrate the effectiveness and rationality of proposed strategy by conducting experiments on GLUE benchmark. Experimental results show our strategy optimizes the parameter selection and achieves preferable performance over some typical baseline methods.
- Abstract(参考訳): LLM(Large Language Models)のパラメータの微調整は計算コストがかかる。
パラメータ効率の良いファインチューニング(PEFT)法は、特定のパラメータを選択的に微調整することでこの問題に対処する。
パラメータのセットを選択したり導入したりするためのPEFT法は、ほとんどのパラメータを微調整する。
しかし、パラメータ選択におけるデータサンプルの影響を考慮する方法はほとんどない。
代表的なデータ駆動方式にはFISH Mask ベースの手法があり、パラメータを選択する際にデータサンプルの一部をランダムに選択する。
しかし、このランダムデータサンプル選択法は、不安定なデータ分布に対して最適なパラメータを選択できない。
本研究では,データ中心のアプローチを導入し,FISHマスクのサンプルパラメータペア選択を最適化するためのIRD(Iterative Range Decreasing)アルゴリズムを提案する。
IRDは、より高度なフィッシャー情報を示すサンプルとパラメータのサブセットを識別することで、選択を反復的に洗練する。
GLUEベンチマークを用いて提案手法の有効性と合理性を示す。
実験結果から,パラメータ選択を最適化し,典型的なベースライン法よりも良好な性能が得られることがわかった。
関連論文リスト
- Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Efficient and Robust Bayesian Selection of Hyperparameters in Dimension
Reduction for Visualization [0.0]
本稿では,次元減少(DR)アルゴリズムにおけるハイパーパラメータ選択のための,効率的かつ堅牢な自動チューニングフレームワークを提案する。
提案手法により,多目的トレードオフを用いた効率的なハイパーパラメータ選択が可能となり,データ駆動分析が可能となった。
我々は,複数の品質指標を用いて,様々な合成および実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-06-01T05:36:22Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Hyperparameter Selection for Subsampling Bootstraps [0.0]
BLBのようなサブサンプリング手法は、大量のデータに対する推定器の品質を評価する強力なツールとして機能する。
サブサンプリング法の性能は,チューニングパラメータの選択によって大きく影響を受ける。
本研究では,サブサンプリング手法のチューニングパラメータの選択に利用できるハイパーパラメータ選択手法を開発した。
シミュレーション研究と実データ解析の両方が,本手法の優位性を証明している。
論文 参考訳(メタデータ) (2020-06-02T17:10:45Z) - PHS: A Toolbox for Parallel Hyperparameter Search [2.0305676256390934]
PHS - Parallel Hyperparameter Search というオープンソースのpythonフレームワークを紹介した。
これは任意のピソン関数の多数の計算インスタンスに対してハイパーパラメータ最適化を可能にする。
論文 参考訳(メタデータ) (2020-02-26T12:17:54Z) - Online Parameter Estimation for Safety-Critical Systems with Gaussian
Processes [6.122161391301866]
オンラインパラメータ推定のためのガウス過程(GP)に基づくベイズ最適化フレームワークを提案する。
パラメータ空間の応答面上の効率的な探索戦略を用いて、最小限の機能評価で大域最適解を求める。
我々は,パラメータの変化を考慮したシミュレーションにおいて,アクティベートされた平面振子と安全臨界振子について実演する。
論文 参考訳(メタデータ) (2020-02-18T20:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。