論文の概要: Can Textual Gradient Work in Federated Learning?
- arxiv url: http://arxiv.org/abs/2502.19980v1
- Date: Thu, 27 Feb 2025 11:03:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:56:37.862792
- Title: Can Textual Gradient Work in Federated Learning?
- Title(参考訳): フェデレートラーニングにおけるテキストのグラディエントな作業は可能か?
- Authors: Minghui Chen, Ruinan Jin, Wenlong Deng, Yuanyuan Chen, Zhi Huang, Han Yu, Xiaoxiao Li,
- Abstract要約: クライアントがローカルに最適化されたプロンプトをアップロードできるようにする新しいFLパラダイムであるFederated Textual Gradient(FedTextGrad)を導入する。
数値集計用に設計された従来のFLフレームワークとは異なり、FedTextGradはテキストデータを扱うために特別に最適化されている。
本研究は,FLトレーニングにおいて重要な要素(例えば,局所的なステップ)を適切に調整することの重要性を強調した。
- 参考スコア(独自算出の注目度): 34.83680021849549
- License:
- Abstract: Recent studies highlight the promise of LLM-based prompt optimization, especially with TextGrad, which automates differentiation'' via texts and backpropagates textual feedback. This approach facilitates training in various real-world applications that do not support numerical gradient propagation or loss calculation. In this paper, we systematically explore the potential and challenges of incorporating textual gradient into Federated Learning (FL). Our contributions are fourfold. Firstly, we introduce a novel FL paradigm, Federated Textual Gradient (FedTextGrad), that allows clients to upload locally optimized prompts derived from textual gradients, while the server aggregates the received prompts. Unlike traditional FL frameworks, which are designed for numerical aggregation, FedTextGrad is specifically tailored for handling textual data, expanding the applicability of FL to a broader range of problems that lack well-defined numerical loss functions. Secondly, building on this design, we conduct extensive experiments to explore the feasibility of FedTextGrad. Our findings highlight the importance of properly tuning key factors (e.g., local steps) in FL training. Thirdly, we highlight a major challenge in FedTextGrad aggregation: retaining essential information from distributed prompt updates. Last but not least, in response to this issue, we improve the vanilla variant of FedTextGrad by providing actionable guidance to the LLM when summarizing client prompts by leveraging the Uniform Information Density principle. Through this principled study, we enable the adoption of textual gradients in FL for optimizing LLMs, identify important issues, and pinpoint future directions, thereby opening up a new research area that warrants further investigation.
- Abstract(参考訳): 最近の研究は、特にテキストによる「差別化」を自動化し、テキストフィードバックをバックプロパゲートするTextGradにおいて、LLMベースのプロンプト最適化の可能性を強調している。
このアプローチは、数値勾配伝播や損失計算をサポートしない様々な実世界のアプリケーションでのトレーニングを容易にする。
本稿では,Federated Learning(FL)にテキストグラデーションを組み込む可能性と課題について,体系的に検討する。
私たちの貢献は4倍です。
まず、新しいFLパラダイムであるFedTextGradient(FedTextGrad)を導入し、クライアントがテキストの勾配からローカルに最適化されたプロンプトをアップロードし、サーバが受信したプロンプトを集約する。
数値アグリゲーション用に設計された従来のFLフレームワークとは異なり、FedTextGradはテキストデータを扱うために特別に最適化されており、FLの適用性は明確に定義された数値ロス関数を欠いた幅広い問題にまで拡張されている。
次に,この設計に基づいてFedTextGradの実現可能性について検討する。
FLトレーニングにおいて鍵因子(例えば局所ステップ)を適切に調整することの重要性が示唆された。
第三に、FedTextGradアグリゲーションにおける大きな課題を強調します。
最後に,この問題に対する対応として,一様情報密度の原理を活かしてクライアントプロンプトの要約を行う際に,LCMに対して実行可能なガイダンスを提供することにより,FedTextGradのバニラ変種を改善する。
本研究では,LLMの最適化,重要な課題の特定,今後の方向性の特定などを目的として,FLにおけるテキスト勾配の適用を可能にし,さらなる調査を保証した新たな研究領域を開設する。
関連論文リスト
- Soft Prompting for Unlearning in Large Language Models [11.504012974208466]
この研究は、データ保護規制を動機とした大規模言語モデルのための機械学習の研究に焦点をあてる。
我々はtextbfUntextbflearning (SPUL) のための textbfSoft textbfPrompting フレームワークを提案する。
本研究では,提案手法の厳密な評価を行い,SPULが実用性と忘れとのトレードオフを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2024-06-17T19:11:40Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Towards Building the Federated GPT: Federated Instruction Tuning [66.7900343035733]
本稿では,大規模言語モデル(LLM)の命令チューニングのための学習フレームワークとして,FedIT(Federated Instruction Tuning)を紹介する。
我々は,FedITを用いてクライアントの終端における多種多様な命令セットを活用することにより,ローカル命令のみを限定した集中学習に比べ,LLMの性能を向上させることを実証した。
論文 参考訳(メタデータ) (2023-05-09T17:42:34Z) - LASP: Text-to-Text Optimization for Language-Aware Soft Prompting of
Vision & Language Models [67.19124099815645]
ベースクラスオーバーフィットを軽減するために,Language-Aware Soft Prompting (LASP) 学習手法を提案する。
LASPは本質的に、トレーニング中に仮想クラス、すなわちビジュアルサンプルが使用できないクラス名を含むことができる。
LASPは、手作りのプロンプトとCLIPによる11のテストデータセットのうち8つの新しいクラスの精度が初めて一致し、上回っている。
論文 参考訳(メタデータ) (2022-10-03T17:56:35Z) - FederatedScope: A Comprehensive and Flexible Federated Learning Platform
via Message Passing [63.87056362712879]
我々は,メッセージ指向フレームワークを基盤とした,新しい総合的なフェデレート学習プラットフォームであるFederatedScopeを提案する。
手続き型フレームワークと比較して、提案されたメッセージ指向フレームワークは異種メッセージ交換を表現するのに柔軟である。
我々は、FederatedScopeの正確性と効率性を検証するために、提供された簡易かつ包括的なFLベンチマークについて一連の実験を行った。
論文 参考訳(メタデータ) (2022-04-11T11:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。