論文の概要: Research on Large Language Model Cross-Cloud Privacy Protection and Collaborative Training based on Federated Learning
- arxiv url: http://arxiv.org/abs/2503.12226v1
- Date: Sat, 15 Mar 2025 18:44:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:32:50.185983
- Title: Research on Large Language Model Cross-Cloud Privacy Protection and Collaborative Training based on Federated Learning
- Title(参考訳): フェデレートラーニングに基づく大規模言語モデルによるクラウド間プライバシー保護と協調学習に関する研究
- Authors: Ze Yang, Yihong Jin, Yihan Zhang, Juntian Liu, Xinhe Xu,
- Abstract要約: 大規模言語モデル(LLM)とクラウドコンピューティングの普及により、クロスクラウドモデルのデプロイメントとトレーニングのプライバシ保護とデータセキュリティに対する懸念が高まっている。
フェデレート学習に基づく分散クラウド間のトレーニングにおいて、プライバシ保護コラボレーションを可能にするとともに、これらの問題を解決するための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.853391005435494
- License:
- Abstract: The fast development of large language models (LLMs) and popularization of cloud computing have led to increasing concerns on privacy safeguarding and data security of cross-cloud model deployment and training as the key challenges. We present a new framework for addressing these issues along with enabling privacy preserving collaboration on training between distributed clouds based on federated learning. Our mechanism encompasses cutting-edge cryptographic primitives, dynamic model aggregation techniques, and cross-cloud data harmonization solutions to enhance security, efficiency, and scalability to the traditional federated learning paradigm. Furthermore, we proposed a hybrid aggregation scheme to mitigate the threat of Data Leakage and to optimize the aggregation of model updates, thus achieving substantial enhancement on the model effectiveness and stability. Experimental results demonstrate that the training efficiency, privacy protection, and model accuracy of the proposed model compare favorably to those of the traditional federated learning method.
- Abstract(参考訳): 大規模言語モデル(LLM)の迅速な開発とクラウドコンピューティングの普及は、プライバシ保護と、クロスクラウドモデルのデプロイメントとトレーニングを重要な課題とするデータセキュリティに対する懸念の高まりにつながっている。
フェデレート学習に基づく分散クラウド間のトレーニングにおいて、プライバシ保護コラボレーションを可能にするとともに、これらの問題を解決するための新しいフレームワークを提案する。
我々のメカニズムは、最先端の暗号プリミティブ、動的モデル集約技術、および従来のフェデレート学習パラダイムに対するセキュリティ、効率、スケーラビリティを高めるために、クラウド間のデータ調和ソリューションを含む。
さらに,データ漏洩の脅威を軽減するハイブリッドアグリゲーション方式を提案し,モデル更新のアグリゲーションを最適化し,モデルの有効性と安定性を大幅に向上させる。
実験結果から,提案モデルの学習効率,プライバシ保護,モデル精度が従来のフェデレーション学習法と比較できることがわかった。
関連論文リスト
- Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - DWFL: Enhancing Federated Learning through Dynamic Weighted Averaging [2.499907423888049]
本稿では,タンパク質配列分類のためのディープフィードフォワードニューラルネットワークに基づく強化フェデレーション学習法を提案する。
本稿では,動的重み付き連合学習(DWFL)について紹介する。
DWFLの有効性を評価するために,実世界のタンパク質配列データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-11-07T20:24:23Z) - Research on Key Technologies for Cross-Cloud Federated Training of Large Language Models [7.762524368844918]
クロスクラウドフェデレーショントレーニングは、単一のクラウドプラットフォームのリソースボトルネックに対処するための、新たなアプローチを提供する。
本研究では、データパーティショニングと分散、通信最適化、モデル集約アルゴリズム、異種クラウドプラットフォームとの互換性など、クロスクラウドフェデレーショントレーニングの重要技術について分析する。
論文 参考訳(メタデータ) (2024-10-24T19:57:17Z) - PPBFL: A Privacy Protected Blockchain-based Federated Learning Model [6.278098707317501]
フェデレート学習の安全性を高めるために,保護型フェデレート学習モデル(PPBFL)を提案する。
本稿では,訓練ノードのインセンティブを目的とした,連邦学習に適した訓練作業証明(PoTW)アルゴリズムを提案する。
また、リングシグネチャ技術を利用した新たなミックストランザクション機構を提案し、ローカルトレーニングクライアントのIDプライバシをよりよく保護する。
論文 参考訳(メタデータ) (2024-01-02T13:13:28Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - FRAMU: Attention-based Machine Unlearning using Federated Reinforcement
Learning [16.86560475992975]
FRAMU(Federated Reinforcement Learning)を用いた注意型機械学習について紹介する。
FRAMUには適応学習機構、プライバシー保護技術、最適化戦略が組み込まれている。
実験の結果,FRAMUはベースラインモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-19T03:13:17Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。