論文の概要: FedOne: Query-Efficient Federated Learning for Black-box Discrete Prompt Learning
- arxiv url: http://arxiv.org/abs/2506.14929v1
- Date: Tue, 17 Jun 2025 19:21:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.463369
- Title: FedOne: Query-Efficient Federated Learning for Black-box Discrete Prompt Learning
- Title(参考訳): FedOne: ブラックボックスの離散的なプロンプト学習のためのクエリ効率の良いフェデレーションラーニング
- Authors: Ganyu Wang, Jinjie Fang, Maxwell J. Ying, Bin Gu, Xi Chen, Boyu Wang, Charles Ling,
- Abstract要約: Black-Box Discrete Prompt Learningは、モデルパラメータや勾配にアクセスせずに離散的なプロンプトを最適化するプロンプトチューニング手法である。
我々は,クラウドベースのLLMと対話する際のクエリ効率を最大化するために,フェデレートされたブラックボックス離散的なプロンプト学習手法であるFedOneフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.60311157467143
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Black-Box Discrete Prompt Learning is a prompt-tuning method that optimizes discrete prompts without accessing model parameters or gradients, making the prompt tuning on a cloud-based Large Language Model (LLM) feasible. Adapting federated learning to BDPL could further enhance prompt tuning performance by leveraging data from diverse sources. However, all previous research on federated black-box prompt tuning had neglected the substantial query cost associated with the cloud-based LLM service. To address this gap, we conducted a theoretical analysis of query efficiency within the context of federated black-box prompt tuning. Our findings revealed that degrading FedAvg to activate only one client per round, a strategy we called \textit{FedOne}, enabled optimal query efficiency in federated black-box prompt learning. Building on this insight, we proposed the FedOne framework, a federated black-box discrete prompt learning method designed to maximize query efficiency when interacting with cloud-based LLMs. We conducted numerical experiments on various aspects of our framework, demonstrating a significant improvement in query efficiency, which aligns with our theoretical results.
- Abstract(参考訳): Black-Box Discrete Prompt Learningは、モデルパラメータや勾配にアクセスせずに離散的なプロンプトを最適化するプロンプトチューニング手法である。
BDPLにフェデレート学習を適用することで、多様なソースからのデータを活用することにより、さらなるチューニング性能が向上する可能性がある。
しかし、以前のフェデレートされたブラックボックスのプロンプトチューニングに関する研究は、クラウドベースのLLMサービスに関連するクエリコストを無視していた。
このギャップに対処するため,フェデレートされたブラックボックス・プロンプトチューニングの文脈におけるクエリ効率の理論的解析を行った。
その結果,フェデレーションFedAvgを1ラウンドに1つのクライアントのみを起動させることで,フェデレーションブラックボックスのプロンプト学習において最適なクエリ効率を実現した。
この知見に基づいて,クラウドベースのLCMと対話する際のクエリ効率の最大化を目的とした,フェデレートされたブラックボックス離散的なプロンプト学習手法であるFedOneフレームワークを提案する。
提案手法の様々な側面に関する数値実験を行い,クエリ効率の大幅な向上を実証した。
関連論文リスト
- QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - Survival of the Most Influential Prompts: Efficient Black-Box Prompt
Search via Clustering and Pruning [77.61565726647784]
本稿では,まず検索空間をクラスタ化してプルークするブラックボックス探索手法を提案する。
検索空間設計と最適化は,ブラックボックス・プロンプトに基づく学習の有用性と効率性を両立させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2023-10-19T14:25:06Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Black-box Prompt Tuning with Subspace Learning [17.310874690694263]
ブラックボックスプロンプトチューニングでは、低次元部分空間内でのプロンプトの学習にデリバティブフリー最適化アルゴリズムを採用している。
最近の研究によると、ブラックボックス・プロンプト・チューニングはタスクとLarge Language Models (LLM)間の汎用性を欠いている。
サブスペース学習(BSL)を用いたブラックボックスプロンプトチューニングを導入し、ブラックボックスプロンプトチューニングの汎用性を高める。
論文 参考訳(メタデータ) (2023-05-04T01:04:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。