論文の概要: FedNC: A Secure and Efficient Federated Learning Method Inspired by
Network Coding
- arxiv url: http://arxiv.org/abs/2305.03292v1
- Date: Fri, 5 May 2023 05:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 15:20:09.079880
- Title: FedNC: A Secure and Efficient Federated Learning Method Inspired by
Network Coding
- Title(参考訳): FedNC:ネットワークコーディングにヒントを得たセキュアで効率的なフェデレーション学習手法
- Authors: Yuchen Shi, Zheqi Zhu, Pingyi Fan, Khaled B. Letaief and Chenghui Peng
- Abstract要約: Federated Learning(FL)は有望な分散学習メカニズムであり、プライバシー侵害とシステム効率という2つの大きな課題に直面している。
本研究では、ネットワーク情報理論の観点からFLシステムを再認識し、ネットワーク符号化(NC)にインスパイアされたオリジナルのFL通信フレームワークであるFedNCを定式化する。
- 参考スコア(独自算出の注目度): 11.806062800053699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a promising distributed learning mechanism which
still faces two major challenges, namely privacy breaches and system
efficiency. In this work, we reconceptualize the FL system from the perspective
of network information theory, and formulate an original FL communication
framework, FedNC, which is inspired by Network Coding (NC). The main idea of
FedNC is mixing the information of the local models by making random linear
combinations of the original packets, before uploading for further aggregation.
Due to the benefits of the coding scheme, both theoretical and experimental
analysis indicate that FedNC improves the performance of traditional FL in
several important ways, including security, throughput, and robustness. To the
best of our knowledge, this is the first framework where NC is introduced in
FL. As FL continues to evolve within practical network frameworks, more
applications and variants can be further designed based on FedNC.
- Abstract(参考訳): Federated Learning(FL)は有望な分散学習メカニズムであり、プライバシー侵害とシステム効率という2つの大きな課題に直面している。
本研究では,ネットワーク情報理論の観点からFLシステムを再認識し,ネットワーク符号化(NC)にインスパイアされたオリジナルのFL通信フレームワークであるFedNCを定式化する。
fedncの主な考え方は、元のパケットをランダムに線形に組み合わせて、さらに集約するためにアップロードする前にローカルモデルの情報を混合することである。
符号化方式の利点により、fencはセキュリティ、スループット、ロバスト性など、いくつかの重要な方法で従来のflの性能を改善していることを示している。
私たちの知る限りでは、これが NC がFLで導入された最初のフレームワークです。
flが実用的なネットワークフレームワークで進化を続けるにつれ、fedncに基づいてさらに多くのアプリケーションや変種を設計できる。
関連論文リスト
- Federated Learning in Practice: Reflections and Projections [17.445826363802997]
Federated Learning(FL)は、複数のエンティティがローカルデータを交換することなく、共同で共有モデルを学ぶことができる機械学習技術である。
Google、Apple、Metaといった組織によるプロダクションシステムは、FLの現実的な適用性を実証しています。
我々は、厳密な定義よりもプライバシー原則を優先する再定義されたFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-11T15:10:38Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Towards Cooperative Federated Learning over Heterogeneous Edge/Fog
Networks [49.19502459827366]
フェデレートラーニング(FL)は、エッジ/フォグネットワーク上で機械学習(ML)モデルをトレーニングするための一般的なテクニックとして推奨されている。
FLの従来の実装は、ネットワーク間協力の可能性を大きく無視してきた。
我々は,デバイス・ツー・デバイス(D2D)とデバイス・ツー・サーバ(D2S)インタラクションに基づいて構築された協調的エッジ/フォグMLパラダイムである協調的連合学習(CFL)を提唱する。
論文 参考訳(メタデータ) (2023-03-15T04:41:36Z) - FedLP: Layer-wise Pruning Mechanism for Communication-Computation
Efficient Federated Learning [15.665720478360557]
フェデレートラーニング(FL)は、分散ラーニングのための効率的でプライバシー保護されたスキームとして普及している。
我々は,異なるタイプのディープラーニングモデルに対して,モデルに依存しない,普遍的なFLプルーニングフレームワークであるFedLP(Federated Layer-wise Pruning)を定式化する。
論文 参考訳(メタデータ) (2023-03-11T09:57:00Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Federated Distillation based Indoor Localization for IoT Networks [7.219077740523683]
フェデレート蒸留(FD)パラダイムは、最近、フェデレートラーニング(FL)の代替として提案されている。
本研究では,回帰学習問題を適切に扱うFDフレームワークを提案する。
提案手法はFLよりも拡張性が高く,無線ネットワークの拡張に対処する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-23T16:32:52Z) - FedComm: Federated Learning as a Medium for Covert Communication [56.376997104843355]
フェデレートラーニング(FL)は、ディープラーニングの採用に伴うプライバシーへの影響を軽減するためのソリューションである。
本稿では,FL方式の通信能力について詳しく検討する。
我々は,新しいマルチシステム被覆通信技術であるFedCommを紹介する。
論文 参考訳(メタデータ) (2022-01-21T17:05:56Z) - On-the-fly Resource-Aware Model Aggregation for Federated Learning in
Heterogeneous Edge [15.932747809197517]
エッジコンピューティングは、フレキシブルでセキュアでパフォーマンスの良い特性のおかげで、モバイルとワイヤレスネットワークの世界に革命をもたらした。
本稿では,中央集約サーバを空飛ぶマスタに置き換えるための戦略を詳細に検討する。
本研究は,EdgeAIテストベッドおよび実5Gネットワーク上で実施した測定結果から,空飛ぶマスターFLフレームワークを用いたランタイムの大幅な削減効果を示した。
論文 参考訳(メタデータ) (2021-12-21T19:04:42Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。