論文の概要: Edge-cloud Collaborative Learning with Federated and Centralized
Features
- arxiv url: http://arxiv.org/abs/2304.05871v1
- Date: Wed, 12 Apr 2023 14:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 14:54:08.331084
- Title: Edge-cloud Collaborative Learning with Federated and Centralized
Features
- Title(参考訳): フェデレーションと集中型機能によるエッジクラウドコラボレーション学習
- Authors: Zexi Li, Qunwei Li, Yi Zhou, Wenliang Zhong, Guannan Zhang, Chao Wu
- Abstract要約: フェデレートラーニング(FL)は、ユーザのプライバシを損なわないエッジコンピューティングの一般的な方法です。
提案するEdge-Cloud Collaborative Knowledge Transfer Framework (ECCT)は,エッジとクラウドのギャップを埋めるものだ。
- 参考スコア(独自算出の注目度): 14.009299207006542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a popular way of edge computing that doesn't
compromise users' privacy. Current FL paradigms assume that data only resides
on the edge, while cloud servers only perform model averaging. However, in
real-life situations such as recommender systems, the cloud server has the
ability to store historical and interactive features. In this paper, our
proposed Edge-Cloud Collaborative Knowledge Transfer Framework (ECCT) bridges
the gap between the edge and cloud, enabling bi-directional knowledge transfer
between both, sharing feature embeddings and prediction logits. ECCT
consolidates various benefits, including enhancing personalization, enabling
model heterogeneity, tolerating training asynchronization, and relieving
communication burdens. Extensive experiments on public and industrial datasets
demonstrate ECCT's effectiveness and potential for use in academia and
industry.
- Abstract(参考訳): フェデレートラーニング(FL)は、ユーザのプライバシを損なわないエッジコンピューティングの一般的な方法です。
現在のFLパラダイムでは、データはエッジにのみ存在するが、クラウドサーバはモデル平均化のみを実行する。
しかし、レコメンデータシステムのような現実的な状況では、クラウドサーバは歴史的かつインタラクティブな機能を格納できる。
本稿では,提案するエッジクラウド協調知識転送フレームワーク(ecct)が,エッジとクラウドのギャップを埋めることによって,機能埋め込みと予測ロジットの共有による双方向知識転送を実現する。
ECCTは、パーソナライゼーションの強化、モデルの不均一性の実現、トレーニングの同期化の許容、通信負担の軽減など、さまざまなメリットを集約する。
公共および産業のデータセットに関する広範囲な実験は、学界および産業におけるecctの有効性と可能性を示している。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Secure Federated Learning Across Heterogeneous Cloud and
High-Performance Computing Resources -- A Case Study on Federated Fine-tuning
of LLaMA 2 [0.7037008937757392]
フェデレートされた学習により、複数のデータ所有者は、大規模または機密性の高いローカルデータセットを転送することなく、堅牢な機械学習モデルを協調的にトレーニングすることができる。
APPFLフレームワークは、クラウドコンピューティング施設と高性能コンピューティングリソースにわたる、エンドツーエンドのセキュアで信頼性の高いフェデレーション学習実験を合理化する。
複数のクラウドリソースとスーパーコンピュータを用いたLLaMA 2 7Bモデルの微調整におけるAPPFLの適用例を示す。
論文 参考訳(メタデータ) (2024-02-19T16:34:59Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - An Efficient Split Fine-tuning Framework for Edge and Cloud
Collaborative Learning [20.118073642453034]
エッジおよびクラウド協調学習のための効率的な分割微調整フレームワークを設計する。
ニューラルネットワークの中間出力を圧縮し、エッジデバイスとクラウドサーバ間の通信量を削減する。
我々のフレームワークは、モデルの精度にほとんど影響を与えずに、96倍の通信トラフィックを削減できる。
論文 参考訳(メタデータ) (2022-11-30T02:55:21Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Aggregation Service for Federated Learning: An Efficient, Secure, and
More Resilient Realization [22.61730495802799]
本稿では,学習過程を通じて個々のモデル更新を効率よく保護するシステム設計を提案する。
本システムは,実用性能で,ベースラインに匹敵する精度を実現している。
論文 参考訳(メタデータ) (2022-02-04T05:03:46Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。