論文の概要: Knowledge Distillation For Wireless Edge Learning
- arxiv url: http://arxiv.org/abs/2104.06374v1
- Date: Sat, 3 Apr 2021 22:20:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 10:47:33.455159
- Title: Knowledge Distillation For Wireless Edge Learning
- Title(参考訳): 無線エッジ学習のための知識蒸留
- Authors: Ahmed P. Mohamed, Abu Shafin Mohammad Mahdee Jameel, Aly El Gamal
- Abstract要約: DARPA Spectrum Collaboration Challenge (SC2) における協調的なスペクトル集束環境におけるフレームエラーの予測フレームワークを提案する。
エッジノードと中央クラウド間で共有される分散エッジ学習を採用しています。
- 参考スコア(独自算出の注目度): 5.4572790062292125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a framework for predicting frame errors in the
collaborative spectrally congested wireless environments of the DARPA Spectrum
Collaboration Challenge (SC2) via a recently collected dataset. We employ
distributed deep edge learning that is shared among edge nodes and a central
cloud. Using this close-to-practice dataset, we find that widely used federated
learning approaches, specially those that are privacy preserving, are worse
than local training for a wide range of settings. We hence utilize the
synthetic minority oversampling technique to maintain privacy via avoiding the
transfer of local data to the cloud, and utilize knowledge distillation with an
aim to benefit from high cloud computing and storage capabilities. The proposed
framework achieves overall better performance than both local and federated
training approaches, while being robust against catastrophic failures as well
as challenging channel conditions that result in high frame error rates.
- Abstract(参考訳): 本稿では,最近収集されたデータセットを用いて,DARPA Spectrum Collaboration Challenge (SC2) の協調的スペクトル集束無線環境におけるフレームエラーの予測フレームワークを提案する。
エッジノードと中央クラウド間で共有される分散エッジ学習を採用しています。
この近くから実践的なデータセットを使うことで、広く使われているフェデレーション学習アプローチ、特にプライバシ保護のアプローチは、幅広い設定のためのローカルトレーニングよりも悪いことが分かりました。
そこで我々は,クラウドへのローカルデータの転送を回避してプライバシを維持するために,合成的マイノリティオーバーサンプリング技術を利用し,高クラウドコンピューティングとストレージ機能の恩恵を受ける目的で知識蒸留を利用する。
提案フレームワークは,局地的および連合的なトレーニングアプローチよりも全体的な性能向上を実現し,破滅的な障害に対して頑健であり,フレームエラー率の高いチャネル条件にも耐えうる。
関連論文リスト
- Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Privacy-Preserving Ensemble Infused Enhanced Deep Neural Network
Framework for Edge Cloud Convergence [18.570317928688606]
本稿では,プライバシー保護のための深層ニューラルネットワーク(DNN)に基づく学習フレームワークを提案する。
収束において、エッジサーバは、IoT生成されたバイオイメージの保存と、ローカルモデルのトレーニングのためのホスティングアルゴリズムの両方に使用される。
提案するフレームワークの性能を評価するために,いくつかの実験を行った。
論文 参考訳(メタデータ) (2023-05-16T07:01:44Z) - FedPDD: A Privacy-preserving Double Distillation Framework for
Cross-silo Federated Recommendation [4.467445574103374]
クロスプラットフォームレコメンデーションは、さまざまなプラットフォームから異種機能を集めることで、レコメンデーションの精度を向上させることを目的としている。
このようなプラットフォーム間のクロスサイロなコラボレーションは、ますます厳しいプライバシー保護規制によって制限される。
クロスサイロ・フェデレーション・レコメンデーションのための新しいプライバシー保護型二重蒸留フレームワークであるFedPDDを提案する。
論文 参考訳(メタデータ) (2023-05-09T16:17:04Z) - Edge-cloud Collaborative Learning with Federated and Centralized
Features [14.009299207006542]
フェデレートラーニング(FL)は、ユーザのプライバシを損なわないエッジコンピューティングの一般的な方法です。
提案するEdge-Cloud Collaborative Knowledge Transfer Framework (ECCT)は,エッジとクラウドのギャップを埋めるものだ。
論文 参考訳(メタデータ) (2023-04-12T14:00:32Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Preserving Privacy in Federated Learning with Ensemble Cross-Domain
Knowledge Distillation [22.151404603413752]
Federated Learning(FL)は、ローカルノードが中央モデルを協調的にトレーニングする機械学習パラダイムである。
既存のFLメソッドはモデルパラメータを共有したり、不均衡なデータ分散の問題に対処するために共蒸留を用いるのが一般的である。
我々は,一発のオフライン知識蒸留を用いたFLフレームワークにおいて,プライバシ保護と通信効率のよい手法を開発した。
論文 参考訳(メタデータ) (2022-09-10T05:20:31Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。