論文の概要: Federated Domain-Specific Knowledge Transfer on Large Language Models Using Synthetic Data
- arxiv url: http://arxiv.org/abs/2405.14212v1
- Date: Thu, 23 May 2024 06:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 18:45:29.210889
- Title: Federated Domain-Specific Knowledge Transfer on Large Language Models Using Synthetic Data
- Title(参考訳): 合成データを用いた大規模言語モデルにおけるドメイン特化知識のフェデレーション
- Authors: Haoran Li, Xinyuan Zhao, Dadi Guo, Hanlin Gu, Ziqian Zeng, Yuxing Han, Yangqiu Song, Lixin Fan, Qiang Yang,
- Abstract要約: フェデレートされたドメイン固有の知識伝達フレームワークを紹介する。
クライアントのデータプライバシを保護しながら、LLMからSLMへのドメイン固有の知識転送を可能にする。
提案されたFDKTフレームワークは、プライバシー予算が10未満のSLMのタスクパフォーマンスを約5%改善する。
- 参考スコア(独自算出の注目度): 53.70870879858533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) demonstrate unparalleled performance and generalization ability, LLMs are widely used and integrated into various applications. When it comes to sensitive domains, as commonly described in federated learning scenarios, directly using external LLMs on private data is strictly prohibited by stringent data security and privacy regulations. For local clients, the utilization of LLMs to improve the domain-specific small language models (SLMs), characterized by limited computational resources and domain-specific data, has attracted considerable research attention. By observing that LLMs can empower domain-specific SLMs, existing methods predominantly concentrate on leveraging the public data or LLMs to generate more data to transfer knowledge from LLMs to SLMs. However, due to the discrepancies between LLMs' generated data and clients' domain-specific data, these methods cannot yield substantial improvements in the domain-specific tasks. In this paper, we introduce a Federated Domain-specific Knowledge Transfer (FDKT) framework, which enables domain-specific knowledge transfer from LLMs to SLMs while preserving clients' data privacy. The core insight is to leverage LLMs to augment data based on domain-specific few-shot demonstrations, which are synthesized from private domain data using differential privacy. Such synthetic samples share similar data distribution with clients' private data and allow the server LLM to generate particular knowledge to improve clients' SLMs. The extensive experimental results demonstrate that the proposed FDKT framework consistently and greatly improves SLMs' task performance by around 5\% with a privacy budget of less than 10, compared to local training on private data.
- Abstract(参考訳): 大規模言語モデル(LLM)は、並列性能と一般化能力を示すため、LLMは広く使われ、様々なアプリケーションに統合されている。
連合学習のシナリオで一般的に説明されるセンシティブなドメインでは、プライベートデータに外部のLLMを直接使用するのは、厳格なデータセキュリティとプライバシ規則によって厳格に禁止されている。
ローカルクライアントにとって、限られた計算資源とドメイン固有データによって特徴付けられるドメイン固有小言語モデル(SLM)を改善するためのLLMの利用は、かなりの研究関心を集めている。
LLMがドメイン固有のSLMを活用できることを観察することで、既存の手法は、LLMからSLMへ知識を伝達するためのより多くのデータを生成するために、公開データまたはLLMを活用することに主に集中する。
しかし、LLMが生成するデータとクライアントのドメイン固有のデータとの相違により、これらの手法はドメイン固有のタスクに大きな改善をもたらすことはできない。
本稿では,クライアントのデータプライバシを保護しながら,LLMからSLMへのドメイン固有の知識伝達を可能にするFDKTフレームワークを提案する。
中心となる洞察は、LLMを活用して、ディファレンシャルプライバシを使用してプライベートドメインデータから合成される、ドメイン固有の数ショットのデモに基づいてデータを拡張することである。
このような合成サンプルは、クライアントのプライベートデータと類似したデータ分布を共有し、サーバのLSMが特定の知識を生成してクライアントのSLMを改善する。
提案したFDKTフレームワークは,プライバシ予算が10未満のSLMのタスク性能を,プライベートデータによるローカルトレーニングと比較して連続的に,かつ大幅に向上することを示した。
関連論文リスト
- Model-Based Differentially Private Knowledge Transfer for Large Language Models [34.949731264918846]
プライバシ保護,ドメイン固有モデルを大規模言語モデルに統合するフレームワークである textitLlamdex を提案する。
提案手法はドメイン固有のタスクの精度を大幅に向上させ,既存手法と比較して最大26%の改善を実現した。
論文 参考訳(メタデータ) (2024-10-14T13:18:20Z) - The Synergy between Data and Multi-Modal Large Language Models: A Survey from Co-Development Perspective [53.48484062444108]
モデルとデータの開発は2つの別々のパスではなく、むしろ相互接続であることがわかった。
一方,MLLMはデータ開発に役立てることができるため,MLLMの性能向上に寄与する。
MLLMコミュニティにおけるデータモデル共同開発を促進するために,データモデル共同開発の観点からMLLMに関連する既存の研究を体系的にレビューする。
論文 参考訳(メタデータ) (2024-07-11T15:08:11Z) - FedMKT: Federated Mutual Knowledge Transfer for Large and Small Language Models [28.284346666217207]
FedMKTは、大小の言語モデルのためのパラメータ効率の良い相互知識伝達フレームワークである。
我々は,FedMKTがLLMとSLMの両方の性能を同時に向上させることを示す。
論文 参考訳(メタデータ) (2024-06-04T11:36:09Z) - BLADE: Enhancing Black-box Large Language Models with Small Domain-Specific Models [56.89958793648104]
大規模言語モデル(LLM)は多用途であり、多様なタスクに対処することができる。
従来のアプローチでは、ドメイン固有のデータによる継続的な事前トレーニングを行うか、一般的なLLMをサポートするために検索拡張を採用する。
BLADEと呼ばれる新しいフレームワークを提案する。このフレームワークは、小さなDomain-spEcificモデルでブラックボックスのLArge言語モデルを拡張する。
論文 参考訳(メタデータ) (2024-03-27T08:57:21Z) - PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of LLMs [49.32067576992511]
大規模言語モデルは、しばしばドメイン固有の最先端モデルによって達成されるパフォーマンスに欠ける。
LLMのドメイン固有の機能を強化する1つの潜在的アプローチは、対応するデータセットを使用してそれらを微調整することである。
LLM(PANDA)のドメイン固有能力を高めるための優先度適応法を提案する。
実験の結果,PANDA はテキスト分類や対話型意思決定タスクにおいて LLM のドメイン固有性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-20T09:02:55Z) - Differentially Private Low-Rank Adaptation of Large Language Model Using Federated Learning [32.52811740662061]
本稿では,大規模言語モデル(LLM)に適した新しいフェデレーション学習アルゴリズムDP-LoRAを紹介する。
DP-LoRAは、重み付け更新のノイズを追加し、データプライバシを個別に維持しつつ、協調的なモデルトレーニングを容易にするガウス機構を使用することで、データのプライバシを保存する。
論文 参考訳(メタデータ) (2023-12-29T06:50:38Z) - EcomGPT-CT: Continual Pre-training of E-commerce Large Language Models
with Semi-structured Data [67.8302955948861]
大規模コーパスで事前訓練された大規模言語モデル(LLM)は、様々なNLPタスクにおいて顕著な性能を示した。
これらのモデルを特定のドメインに適用しても、ドメイン知識の欠如など、大きな課題が生じる。
我々は、Eコマースドメインを例として用いたLLMのドメイン固有の継続事前学習に焦点を当てた。
論文 参考訳(メタデータ) (2023-12-25T11:31:47Z) - Mutual Enhancement of Large and Small Language Models with Cross-Silo
Knowledge Transfer [27.63746419563747]
大規模言語モデル (LLM) には幅広い知識が与えられているが、そのタスク固有の性能は、しばしば準最適である。
タスク固有のデータで微調整 LLM を必要とするが、プライバシー上の懸念からアクセスできない可能性がある。
本研究では,より小さな言語モデル (SLM) でLLMを強化し,クライアント上でプライベートなタスク固有データを用いて学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-10T09:52:32Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。