論文の概要: Cross-Cloud Data Privacy Protection: Optimizing Collaborative Mechanisms of AI Systems by Integrating Federated Learning and LLMs
- arxiv url: http://arxiv.org/abs/2505.13292v1
- Date: Mon, 19 May 2025 16:14:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.723593
- Title: Cross-Cloud Data Privacy Protection: Optimizing Collaborative Mechanisms of AI Systems by Integrating Federated Learning and LLMs
- Title(参考訳): クラウド間のデータプライバシ保護:フェデレーション学習とLLMの統合によるAIシステムの協調メカニズムの最適化
- Authors: Huaiying Luo, Cheng Ji,
- Abstract要約: 我々は,分散ノードからモデル更新を集約することで,元のデータを公開せずにフェデレーション学習が機能する,クロスクラウドアーキテクチャを導入する。
モデルの更新とトレーニングデータのプライバシと整合性を保証するために、セキュアなコミュニケーション層を導入して、さらに革新しました。
実験結果から,提案手法は従来のフェデレーション学習モデルよりも精度,収束速度,データプライバシ保護の点で有意に優れていることがわかった。
- 参考スコア(独自算出の注目度): 1.819979627431298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the age of cloud computing, data privacy protection has become a major challenge, especially when sharing sensitive data across cloud environments. However, how to optimize collaboration across cloud environments remains an unresolved problem. In this paper, we combine federated learning with large-scale language models to optimize the collaborative mechanism of AI systems. Based on the existing federated learning framework, we introduce a cross-cloud architecture in which federated learning works by aggregating model updates from decentralized nodes without exposing the original data. At the same time, combined with large-scale language models, its powerful context and semantic understanding capabilities are used to improve model training efficiency and decision-making ability. We've further innovated by introducing a secure communication layer to ensure the privacy and integrity of model updates and training data. The model enables continuous model adaptation and fine-tuning across different cloud environments while protecting sensitive data. Experimental results show that the proposed method is significantly better than the traditional federated learning model in terms of accuracy, convergence speed and data privacy protection.
- Abstract(参考訳): クラウドコンピューティングの時代には、特にクラウド環境間で機密データを共有する場合、データのプライバシ保護が大きな課題となっている。
しかし、クラウド環境間のコラボレーションを最適化する方法は未解決の問題のままである。
本稿では,AIシステムの協調機構を最適化するために,連合学習と大規模言語モデルを組み合わせる。
既存のフェデレーション学習フレームワークに基づいて、フェデレーション学習は、オリジナルのデータを公開せずに、分散ノードからモデル更新を集約することで機能する、クロスクラウドアーキテクチャを導入する。
同時に、大規模言語モデルと組み合わせることで、その強力なコンテキストと意味理解能力は、モデルのトレーニング効率と意思決定能力を改善するために使用される。
モデルの更新とトレーニングデータのプライバシと整合性を保証するために、セキュアなコミュニケーション層を導入して、さらに革新しました。
このモデルは、機密データを保護しながら、異なるクラウド環境にわたる継続的モデル適応と微調整を可能にする。
実験結果から,提案手法は従来のフェデレーション学習モデルよりも精度,収束速度,データプライバシ保護の点で有意に優れていることがわかった。
関連論文リスト
- FedAWA: Adaptive Optimization of Aggregation Weights in Federated Learning Using Client Vectors [50.131271229165165]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
ユーザの行動、好み、デバイス特性の相違から生じるデータの異質性は、連合学習にとって重要な課題である。
本稿では,学習過程におけるクライアントベクトルに基づくアダプティブ重み付けを適応的に調整する手法であるAdaptive Weight Aggregation (FedAWA)を提案する。
論文 参考訳(メタデータ) (2025-03-20T04:49:40Z) - Research on Large Language Model Cross-Cloud Privacy Protection and Collaborative Training based on Federated Learning [5.853391005435494]
大規模言語モデル(LLM)とクラウドコンピューティングの普及により、クロスクラウドモデルのデプロイメントとトレーニングのプライバシ保護とデータセキュリティに対する懸念が高まっている。
フェデレート学習に基づく分散クラウド間のトレーニングにおいて、プライバシ保護コラボレーションを可能にするとともに、これらの問題を解決するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-15T18:44:50Z) - ECLM: Efficient Edge-Cloud Collaborative Learning with Continuous
Environment Adaptation [47.35179593006409]
動的エッジ環境に対する高速モデル適応のためのエッジクラウド協調学習フレームワークECLMを提案する。
その結果,ECLM はモデルの性能(例えば 18.89% の精度向上)と資源効率(例えば 7.12 倍の通信コスト削減)を,動的エッジ環境への適応において著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-18T14:10:09Z) - FRAMU: Attention-based Machine Unlearning using Federated Reinforcement
Learning [16.86560475992975]
FRAMU(Federated Reinforcement Learning)を用いた注意型機械学習について紹介する。
FRAMUには適応学習機構、プライバシー保護技術、最適化戦略が組み込まれている。
実験の結果,FRAMUはベースラインモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-19T03:13:17Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Aggregation Service for Federated Learning: An Efficient, Secure, and
More Resilient Realization [22.61730495802799]
本稿では,学習過程を通じて個々のモデル更新を効率よく保護するシステム設計を提案する。
本システムは,実用性能で,ベースラインに匹敵する精度を実現している。
論文 参考訳(メタデータ) (2022-02-04T05:03:46Z) - Device-Cloud Collaborative Learning for Recommendation [50.01289274123047]
集中型クラウドモデルにより「数千人のモデルを持つ何千人もの人」を効率的に実現する新しいMetaPatch学習手法をデバイス側で提案します。
数十億の更新されたパーソナライズされたデバイスモデルにより、集中型クラウドモデルを更新する"モデルオーバーモデル"蒸留アルゴリズム、すなわちMoMoDistillを提案する。
論文 参考訳(メタデータ) (2021-04-14T05:06:59Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。