論文の概要: Advanced Black-Box Tuning of Large Language Models with Limited API Calls
- arxiv url: http://arxiv.org/abs/2511.10210v2
- Date: Mon, 17 Nov 2025 05:54:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.4926
- Title: Advanced Black-Box Tuning of Large Language Models with Limited API Calls
- Title(参考訳): APIコールを限定した大規模言語モデルの高度なブラックボックスチューニング
- Authors: Zhikang Xie, Weilin Wan, Peizhu Gong, Weizhong Zhang, Cheng Jin,
- Abstract要約: ブラックボックスチューニングは、より大きな言語モデル(LLM)を望ましい振る舞いに適応するための新たなパラダイムである。
限られたAPI呼び出しを持つLLMのための新しい高度なブラックボックスチューニング手法を提案する。
提案手法では,事前学習した言語モデルの精度を55.92%から86.85%に引き上げ,APIクエリの頻度を1.38%に削減する。
- 参考スコア(独自算出の注目度): 20.29862533577494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box tuning is an emerging paradigm for adapting large language models (LLMs) to better achieve desired behaviors, particularly when direct access to model parameters is unavailable. Current strategies, however, often present a dilemma of suboptimal extremes: either separately train a small proxy model and then use it to shift the predictions of the foundation model, offering notable efficiency but often yielding limited improvement; or making API calls in each tuning iteration to the foundation model, which entails prohibitive computational costs. Therefore, we propose a novel advanced black-box tuning method for LLMs with limited API calls. Our core strategy involves training a Gaussian Process (GP) surrogate model with "LogitMap Pairs" derived from querying the foundation model on a minimal but highly informative training subset. This surrogate can approximate the outputs of the foundation model to guide the training of the proxy model, thereby effectively reducing the need for direct queries to the foundation model. Extensive experiments verify that our approach elevates pre-trained language model accuracy from 55.92% to 86.85%, reducing the frequency of API queries to merely 1.38%. This significantly outperforms offline approaches that operate entirely without API access. Notably, our method also achieves comparable or superior accuracy to query-intensive approaches, while significantly reducing API costs. This offers a robust and high-efficiency paradigm for language model adaptation.
- Abstract(参考訳): ブラックボックスチューニングは、特にモデルパラメータに直接アクセスできない場合に、望ましい振る舞いを達成するために大きな言語モデル(LLM)を適用するための新たなパラダイムである。
しかしながら、現在の戦略では、小さなプロキシモデルを個別にトレーニングし、それを使って基礎モデルの予測をシフトし、顕著な効率性を提供するが、改善が制限される場合が多い。
そこで本研究では,API呼び出しに制限のあるLCMのための新しい高度なブラックボックスチューニング手法を提案する。
我々の中核的な戦略は、最小限だが非常に有意義なトレーニングサブセットで基礎モデルに問い合わせることから派生した"LogitMap Pairs"でガウスプロセス(GP)サロゲートモデルをトレーニングすることである。
このサロゲートは、ファンデーションモデルの出力を近似してプロキシモデルのトレーニングをガイドし、ファンデーションモデルへの直接クエリの必要性を効果的に低減することができる。
大規模な実験により,事前学習した言語モデルの精度が55.92%から86.85%に向上し,APIクエリの頻度が1.38%に低下した。
これは、APIアクセスなしで完全に動作するオフラインアプローチよりも大幅に優れています。
また,本手法はクエリ集約アプローチと同等あるいは優れた精度を実現し,APIコストを大幅に削減する。
これは、言語モデル適応のための堅牢で高効率なパラダイムを提供する。
関連論文リスト
- Black-box Model Merging for Language-Model-as-a-Service with Massive Model Repositories [21.899117703417517]
進化的アルゴリズム(Evo-Merging)に基づく微分自由最適化フレームワークを提案する。
提案手法は,(1) モデル間の不適切な情報や冗長な情報を識別・フィルタリングする疎結合型デノベーション,(2) 関連モデルに対する最適な組合せ重み付けを動的に計算するシグナック・アウェア・スケーリングの2つの重要な要素から構成される。
提案手法は,様々なタスクにおける最先端の成果を達成し,既存の強靭なベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-09-16T10:55:50Z) - PSO-Merging: Merging Models Based on Particle Swarm Optimization [36.641774346671504]
我々は、Particle Swarm Optimization(PSO)に基づく新しいデータ駆動マージ手法であるPSO-Mergingを紹介する。
提案手法では,素粒子群を事前学習モデル,エキスパートモデル,スパシファイドエキスパートモデルで初期化する。
次に、複数の繰り返しを行い、最終的な大域的最適粒子がマージモデルとして機能する。
論文 参考訳(メタデータ) (2025-08-27T12:52:36Z) - Aligning Frozen LLMs by Reinforcement Learning: An Iterative Reweight-then-Optimize Approach [65.6966065843227]
Iterative Reweight-then-IROは、凍結ベースモデルのRLスタイルアライメントを実行するフレームワークである。
テスト時には、値関数を使用して、検索ベースの最適化プロセスを介してベースモデル生成をガイドする。
特に、ユーザは、OpenAIの強化微調整(RFT)と同様、自身のデータセットにモデルをアライメントするためにIROを適用することができる。
論文 参考訳(メタデータ) (2025-06-21T21:49:02Z) - Tuning Language Models by Proxy [110.49482736590907]
直接チューニングと同じ目的を達成するために,ブラックボックスLM上で動作する軽量復号時間アルゴリズムであるプロキシチューニングを導入する。
提案手法は, 小型のLMをチューニングし, 小型のLMと未チューニングのLMの予測の差を適用して, より大型の未チューニングモデルの本来の予測をチューニング方向にシフトさせる。
論文 参考訳(メタデータ) (2024-01-16T18:49:55Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - PELA: Learning Parameter-Efficient Models with Low-Rank Approximation [16.9278983497498]
そこで本研究では,中間学習段階を導入することにより,事前学習モデルのパラメータ効率を向上させる手法を提案する。
これにより、下流の微調整タスクにローランクモデルの直接的かつ効率的な利用が可能になる。
論文 参考訳(メタデータ) (2023-10-16T07:17:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。