論文の概要: CPT: Consistent Proxy Tuning for Black-box Optimization
- arxiv url: http://arxiv.org/abs/2407.01155v1
- Date: Mon, 1 Jul 2024 10:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:59:43.065085
- Title: CPT: Consistent Proxy Tuning for Black-box Optimization
- Title(参考訳): CPT: ブラックボックス最適化のための一貫性のあるプロキシチューニング
- Authors: Yuanyang He, Zitong Huang, Xinxing Xu, Rick Siow Mong Goh, Salman Khan, Wangmeng Zuo, Yong Liu, Chun-Mei Feng,
- Abstract要約: Proxy-tuningはブラックボックス言語モデルをチューニングするためのテスト時間出力調整を提供する。
本稿では,シンプルなブラックボックスチューニング手法であるConsistent Proxy Tuning (CPT)を紹介する。
CPTは、凍結した大きなブラックボックスモデルと別の凍結した小さなホワイトボックスモデルを利用して、トレーニングステージ最適化目標とテストタイムプロキシの一貫性を確保する。
- 参考スコア(独自算出の注目度): 63.06335358432746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Black-box tuning has attracted recent attention due to that the structure or inner parameters of advanced proprietary models are not accessible. Proxy-tuning provides a test-time output adjustment for tuning black-box language models. It applies the difference of the output logits before and after tuning a smaller white-box "proxy" model to improve the black-box model. However, this technique serves only as a decoding-time algorithm, leading to an inconsistency between training and testing which potentially limits overall performance. To address this problem, we introduce Consistent Proxy Tuning (CPT), a simple yet effective black-box tuning method. Different from Proxy-tuning, CPT additionally exploits the frozen large black-box model and another frozen small white-box model, ensuring consistency between training-stage optimization objective and test-time proxies. This consistency benefits Proxy-tuning and enhances model performance. Note that our method focuses solely on logit-level computation, which makes it model-agnostic and applicable to any task involving logit classification. Extensive experimental results demonstrate the superiority of our CPT in both black-box tuning of Large Language Models (LLMs) and Vision-Language Models (VLMs) across various datasets. The code is available at https://github.com/chunmeifeng/CPT.
- Abstract(参考訳): ブラックボックスチューニングは、先進的なプロプライエタリモデルの構造や内部パラメータがアクセスできないため、近年注目されている。
Proxy-tuningはブラックボックス言語モデルをチューニングするためのテスト時間出力調整を提供する。
ブラックボックスモデルを改善するために、より小さなホワイトボックス"プロキシ"モデルをチューニングした前後の出力ロジットの違いを適用します。
しかし、この手法はデコード時のアルゴリズムとしてのみ機能し、トレーニングとテストの矛盾が生じ、全体的なパフォーマンスが制限される可能性がある。
この問題に対処するために,簡単なブラックボックスチューニング手法であるConsistent Proxy Tuning (CPT)を導入する。
Proxy-tuningとは異なり、CPTは凍結した大きなブラックボックスモデルと別の凍結した小さなホワイトボックスモデルも利用し、トレーニングステージ最適化目標とテストタイムプロキシの一貫性を確保する。
この一貫性はプロキシチューニングの恩恵を受け、モデルパフォーマンスが向上します。
本手法は,ロジットレベルの計算にのみ焦点をあてており,ロジット分類を含むタスクに対して,モデルに依存しない。
LLM(Large Language Models)とVLM(Vision-Language Models)のブラックボックスチューニングにおけるCPTの優位性を示した。
コードはhttps://github.com/chunmeifeng/CPTで公開されている。
関連論文リスト
- Connecting the Dots: Collaborative Fine-tuning for Black-Box Vision-Language Models [121.0693322732454]
本稿では,下流タスクに対するブラックボックス視覚言語モデルの微調整のための textbfCraFT' アプローチを提案する。
CraFTは、2つのモジュールと、テキストプロンプトを学習するプロンプト生成モジュールと、残差スタイルの出力予測を強化する予測改善モジュールとから構成される。
15以上のデータセットに対する数ショットの分類実験は、CraFTの優位性を示している。
論文 参考訳(メタデータ) (2024-02-06T14:53:19Z) - Tuning Language Models by Proxy [110.49482736590907]
直接チューニングと同じ目的を達成するために,ブラックボックスLM上で動作する軽量復号時間アルゴリズムであるプロキシチューニングを導入する。
提案手法は, 小型のLMをチューニングし, 小型のLMと未チューニングのLMの予測の差を適用して, より大型の未チューニングモデルの本来の予測をチューニング方向にシフトさせる。
論文 参考訳(メタデータ) (2024-01-16T18:49:55Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - Enhancing Black-Box Few-Shot Text Classification with Prompt-Based Data
Augmentation [42.05617728412819]
大規模言語モデルの勾配にアクセスすることなく、少数ショットのテキスト分類を最適化する方法を示す。
我々のアプローチはBT-Classifierと呼ばれ、最先端のブラックボックス学習者よりもはるかに優れています。
論文 参考訳(メタデータ) (2023-05-23T07:54:34Z) - Black-Box Tuning for Language-Model-as-a-Service [85.2210372920386]
この研究は、デリバティブフリーアルゴリズムによってPTMを最適化するBlack-Box Tuningを提案する。
特に,PTM推論APIを反復的に呼び出すことで,入力テキストに既定の連続的なプロンプトを最適化するためにCMA-ESを起動する。
実験の結果,数個のラベル付きサンプル上でのRoBERTaを用いたブラックボックスチューニングは,手動のプロンプトやGPT-3のテキスト内学習に優れるだけでなく,勾配に基づく学習よりも優れていた。
論文 参考訳(メタデータ) (2022-01-10T18:17:05Z) - Non-smooth Bayesian Optimization in Tuning Problems [5.768843113172494]
代理モデルの構築は、未知のブラックボックス関数を学習しようとする場合の一般的なアプローチである。
クラスター化ガウス過程 (cGP) と呼ばれる新しい加法的ガウス過程モデルを提案し, 加法的成分はクラスタリングによって誘導される。
調査した例では、反復実験で最大90%の性能向上が可能である。
論文 参考訳(メタデータ) (2021-09-15T20:22:09Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。