論文の概要: FedSAUC: A Similarity-Aware Update Control for Communication-Efficient Federated Learning in Edge Computing
- arxiv url: http://arxiv.org/abs/2504.04867v1
- Date: Mon, 07 Apr 2025 09:21:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 20:42:55.654582
- Title: FedSAUC: A Similarity-Aware Update Control for Communication-Efficient Federated Learning in Edge Computing
- Title(参考訳): FedSAUC:エッジコンピューティングにおけるコミュニケーション効率の良いフェデレーション学習のための類似性を考慮した更新制御
- Authors: Ming-Lun Lee, Han-Chang Chou, Yan-Ann~Chen,
- Abstract要約: フェデレーション学習は、スマートフォン、ウェアラブルデバイス、IoT(Internet of Things)デバイスなどのエッジデバイスに適用される。
本稿では,ユーザの行動の類似性を考慮し,フェデレート学習のための更新制御であるFedSAUCを提案する。
実験によると、このアップデートコントロールは、長期的にはトレーニングの精度に影響を与えない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning is a distributed machine learning framework to collaboratively train a global model without uploading privacy-sensitive data onto a centralized server. Usually, this framework is applied to edge devices such as smartphones, wearable devices, and Internet of Things (IoT) devices which closely collect information from users. However, these devices are mostly battery-powered. The update procedure of federated learning will constantly consume the battery power and the transmission bandwidth. In this work, we propose an update control for federated learning, FedSAUC, by considering the similarity of users' behaviors (models). At the server side, we exploit clustering algorithms to group devices with similar models. Then we select some representatives for each cluster to update information to train the model. We also implemented a testbed prototyping on edge devices for validating the performance. The experimental results show that this update control will not affect the training accuracy in the long run.
- Abstract(参考訳): Federated Learningは、プライバシに敏感なデータを集中サーバにアップロードすることなく、グローバルモデルを協調的にトレーニングする分散機械学習フレームワークである。
通常、このフレームワークはスマートフォン、ウェアラブルデバイス、IoT(Internet of Things)デバイスなどのエッジデバイスに適用される。
しかし、これらのデバイスはほとんどがバッテリー駆動だ。
連合学習の更新手順は、常にバッテリ電力と伝送帯域を消費する。
本研究では,ユーザの行動(モデル)の類似性を考慮して,フェデレート学習のための更新制御であるFedSAUCを提案する。
サーバ側では、クラスタリングアルゴリズムを利用して、同様のモデルでデバイスをグループ化する。
次に、各クラスタの代表者を選択して、モデルをトレーニングするための情報を更新します。
また,エッジデバイスにテストベッドプロトタイピングを実装し,性能の検証を行った。
実験結果から,この更新制御が長期のトレーニング精度に影響を与えないことが示唆された。
関連論文リスト
- Undermining Federated Learning Accuracy in EdgeIoT via Variational Graph Auto-Encoders [23.39841886729196]
EdgeIoTはIoT(Internet of Things)デバイスによるモバイルエッジコンピューティングを提供し、データソースに近いデータ処理を可能にする。
フェデレートされた学習により、各デバイスはローカルに処理されたデータで共有された機械学習モデルのアップデートをアップロードできる。
本稿では,データに依存しないモデル操作攻撃として知られるEdgeIoTにおけるフェデレーション学習を対象とする新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2025-04-14T10:09:38Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Unsupervised anomalies detection in IIoT edge devices networks using
federated learning [0.0]
分散機械学習アプローチとしてのフェデレーション学習(FL)は、データそのものを収集したデバイス上で、マシンラーニングモデルのトレーニングを実行する。
本稿では、最近のIoT/IIoTデバイスネットワークを表すデータセットにFLの利点を活用し、Fedavgアルゴリズムを実装した。
また,障害デバイスがトレーニングのすべての段階で参加していない場合,トレーニング中に発生する不公平さなど,Fedavgの欠点も評価した。
論文 参考訳(メタデータ) (2023-08-23T14:53:38Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Comparative assessment of federated and centralized machine learning [0.0]
Federated Learning(FL)は、デバイス間でフェデレーションされたデータによってトレーニングが行われる、プライバシ保護機械学習スキームである。
本稿では,非IID分散データの性質から,フェデレーション学習に影響を及ぼす諸要因について論じる。
トレーニング対象のモデルサイズが合理的に大きくない場合には,フェデレーション学習がコスト面で有利であることを示す。
論文 参考訳(メタデータ) (2022-02-03T11:20:47Z) - FedZKT: Zero-Shot Knowledge Transfer towards Heterogeneous On-Device
Models in Federated Learning [6.9573683028565885]
フェデレーション学習は、デバイス上でのトレーニングデータを集中化せずに、分散デバイスが共有予測モデルを学ぶことを可能にする。
本稿では,ゼロショット・ナレッジ・トランスファー(Zero-shot Knowledge Transfer)による異種オンデバイスモデル間のフェデレーション学習を支援する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T16:53:07Z) - Federated Learning with Downlink Device Selection [92.14944020945846]
我々は,無線ネットワークのエッジにおいて,プライバシーに敏感なデータを用いてグローバルモデルを協調訓練するフェデレーションエッジ学習について検討した。
パラメータサーバ(PS)は、グローバルモデルを追跡し、無線エッジデバイスと共有して、プライベートローカルデータを使用したトレーニングを行う。
デバイス選択は、PSがデバイスとグローバルモデルを共有するダウンリンクチャネルに基づいて検討する。
論文 参考訳(メタデータ) (2021-07-07T22:42:39Z) - Federated Learning-based Active Authentication on Mobile Devices [98.23904302910022]
モバイルデバイス上のユーザアクティブ認証は、デバイスセンサ情報に基づいて登録ユーザを正しく認識できるモデルを学ぶことを目的としている。
Federated Active Authentication (FAA) と呼ばれる新しいユーザーアクティブ認証トレーニングを提案します。
既存のFL/SL法は,同質に分散するデータに依存するため,FAAにとって最適ではないことを示す。
論文 参考訳(メタデータ) (2021-04-14T22:59:08Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning [96.38757904624208]
モバイルネットワーク上の機械学習アルゴリズムは、3つのカテゴリに分類される。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論のフレームワークを提供することである。
論文 参考訳(メタデータ) (2020-05-05T21:23:45Z) - An On-Device Federated Learning Approach for Cooperative Model Update
between Edge Devices [2.99321624683618]
エッジデバイスが実行時に入力データをトレーニングしてモデルを更新するように、オンデバイス学習に基づくニューラルネットワークアプローチが最近提案されている。
本稿では,OS-ELMに着目して,最近のサンプルに基づいてモデルを逐次訓練し,異常検出のためのオートエンコーダと組み合わせる。
デバイス上でのフェデレーション学習のために拡張し、エッジデバイスがトレーニングされた結果を交換し、他のエッジデバイスから収集したデータを使用してモデルを更新できるようにします。
論文 参考訳(メタデータ) (2020-02-27T18:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。