論文の概要: When Gradient Descent Meets Derivative-Free Optimization: A Match Made
in Black-Box Scenario
- arxiv url: http://arxiv.org/abs/2305.10013v1
- Date: Wed, 17 May 2023 07:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 17:04:40.249471
- Title: When Gradient Descent Meets Derivative-Free Optimization: A Match Made
in Black-Box Scenario
- Title(参考訳): 勾配降下がデリバティブフリー最適化を満たす場合:ブラックボックスシナリオによるマッチング
- Authors: Chengcheng Han, Liqing Cui, Renyu Zhu, Jianing Wang, Nuo Chen, Qiushi
Sun, Xiang Li, Ming Gao
- Abstract要約: 大規模な事前訓練言語モデル(PLM)を実行するコストは、禁止される可能性がある。
PLMは、商業的考慮と、GPT-3のような誤使用の潜在的なリスクのために、オープンソース化されない可能性がある。
本稿では,タスク固有の連続プロンプトを最適化するために,勾配降下と微分自由最適化を統合したGDFOを提案する。
- 参考スコア(独自算出の注目度): 13.067874201647966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large pre-trained language models (PLMs) have garnered significant attention
for their versatility and potential for solving a wide spectrum of natural
language processing (NLP) tasks. However, the cost of running these PLMs may be
prohibitive. Furthermore, PLMs may not be open-sourced due to commercial
considerations and potential risks of misuse, such as GPT-3. The parameters and
gradients of PLMs are unavailable in this scenario. To solve the issue,
black-box tuning has been proposed, which utilizes derivative-free optimization
(DFO), instead of gradient descent, for training task-specific continuous
prompts. However, these gradient-free methods still exhibit a significant gap
compared to gradient-based methods. In this paper, we introduce gradient
descent into black-box tuning scenario through knowledge distillation.
Furthermore, we propose a novel method GDFO, which integrates gradient descent
and derivative-free optimization to optimize task-specific continuous prompts
in a harmonized manner. Experimental results show that GDFO can achieve
significant performance gains over previous state-of-the-art methods.
- Abstract(参考訳): 大規模事前学習型言語モデル(PLM)は、その汎用性と幅広い自然言語処理(NLP)タスクを解く可能性において、大きな注目を集めている。
しかし、これらのPLMの実行コストは禁じられているかもしれない。
さらに、商業的考慮と、GPT-3のような誤用の潜在的なリスクのため、PLMはオープンソースにはならない。
PLMのパラメータと勾配はこのシナリオでは利用できない。
タスク固有の連続プロンプトのトレーニングには、勾配降下の代わりに微分自由最適化(DFO)を利用するブラックボックスチューニングが提案されている。
しかし, 勾配を含まない手法は, 勾配に基づく手法に比べ, 依然として有意な差を示した。
本稿では, 知識蒸留によるブラックボックス調律シナリオにおける勾配降下について述べる。
さらに,タスク固有の連続プロンプトを調和的に最適化するために,勾配降下と微分自由最適化を統合したGDFOを提案する。
実験結果から,GDFOは従来の最先端手法に比べて高い性能向上が得られた。
関連論文リスト
- Gradient-Mask Tuning Elevates the Upper Limits of LLM Performance [51.36243421001282]
Gradient-Mask Tuning (GMT) は、勾配情報に基づいてトレーニング中のパラメータを選択的に更新する手法である。
実験により, GMTは従来の微調整法に勝るだけでなく, LLM性能の上限も高めることを示した。
論文 参考訳(メタデータ) (2024-06-21T17:42:52Z) - Diffusion-ES: Gradient-free Planning with Diffusion for Autonomous Driving and Zero-Shot Instruction Following [21.81411085058986]
Reward-gradient guided denoisingは、微分可能報酬関数と拡散モデルによって捕捉されたデータ分布下での確率の両方を最大化する軌道を生成する。
そこで我々は,勾配のない最適化と軌道デノゲーションを組み合わせたDiffusionESを提案する。
DiffusionESは、自動運転のための確立されたクローズドループ計画ベンチマークであるnuPlan上で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-02-09T17:18:33Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Multi-fidelity Constrained Optimization for Stochastic Black Box
Simulators [1.6385815610837167]
上記の問題に対処するために、Scout-Nd (Stochastic Constrained Optimization for N dimensions) アルゴリズムを導入する。
Scout-Ndは効率よく勾配を推定し、推定器勾配のノイズを低減し、計算労力をさらに削減するために多重忠実性スキームを適用する。
提案手法を標準ベンチマークで検証し,既存の手法よりも優れた性能を示すパラメータの最適化の有効性を示す。
論文 参考訳(メタデータ) (2023-11-25T23:36:38Z) - Reliable Gradient-free and Likelihood-free Prompt Tuning [28.522673618527413]
大規模な事前訓練言語モデル(PLM)はブラックボックスAPIとして提供されることが多い。
このようなモデルを下流タスクに微調整することは、モデルの内部表現へのアクセスも、それを通して勾配の伝播もできないため、難しい。
本稿では,APIアクセスのみでPLMを適応させる手法を開発することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2023-04-30T22:33:08Z) - A Scalable Gradient-Free Method for Bayesian Experimental Design with
Implicit Models [3.437223569602425]
確率が難解であるがサンプリングが可能である暗黙のモデルでは、従来のベッド法では後方分布を効率的に推定することが困難である。
最近の研究では、これらの問題に対処するためにMIの低い境界を最大化するグラデーションアセンションの使用を提案しました。
効率的かつ堅牢なBEDを実現するための、平滑な変動MIを組み込んだ近似勾配上昇の最近の進歩を活用する新しいアプローチを提案します。
論文 参考訳(メタデータ) (2021-03-14T20:28:51Z) - TaylorGAN: Neighbor-Augmented Policy Update for Sample-Efficient Natural
Language Generation [79.4205462326301]
TaylorGANは関数ベースの自然言語生成のための新しいアプローチである。
オフポリシー更新による勾配推定と1階のTaylor拡張が強化される。
これにより、より小さなバッチサイズで、スクラッチからNLGモデルをトレーニングすることができます。
論文 参考訳(メタデータ) (2020-11-27T02:26:15Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。