論文の概要: Federated Learning Cost Disparity for IoT Devices
- arxiv url: http://arxiv.org/abs/2204.08036v1
- Date: Sun, 17 Apr 2022 15:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 02:01:57.757443
- Title: Federated Learning Cost Disparity for IoT Devices
- Title(参考訳): IoTデバイスにおけるフェデレーション学習コストの格差
- Authors: Sheeraz A. Alvi, Yi Hong, Salman Durrani
- Abstract要約: フェデレートラーニング(FL)は、データ収集コストを回避することにより、モノのインターネット(IoT)デバイスにおける予測モデルトレーニングを促進する。
我々は、IoTデバイスが実現した学習成果を、そのユーティリティとしての参加コストに対してモデル化する。
我々は,各ラウンドでデバイスと共有されるグローバルモデルの品質を,その貢献と支出に基づいて制御することを提案する。
- 参考スコア(独自算出の注目度): 14.549572369644732
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated learning (FL) promotes predictive model training at the Internet of
things (IoT) devices by evading data collection cost in terms of energy, time,
and privacy. We model the learning gain achieved by an IoT device against its
participation cost as its utility. Due to the device-heterogeneity, the local
model learning cost and its quality, which can be time-varying, differs from
device to device. We show that this variation results in utility unfairness
because the same global model is shared among the devices. By default, the
master is unaware of the local model computation and transmission costs of the
devices, thus it is unable to address the utility unfairness problem. Also, a
device may exploit this lack of knowledge at the master to intentionally reduce
its expenditure and thereby enhance its utility. We propose to control the
quality of the global model shared with the devices, in each round, based on
their contribution and expenditure. This is achieved by employing differential
privacy to curtail global model divulgence based on the learning contribution.
In addition, we devise adaptive computation and transmission policies for each
device to control its expenditure in order to mitigate utility unfairness. Our
results show that the proposed scheme reduces the standard deviation of the
energy cost of devices by 99% in comparison to the benchmark scheme, while the
standard deviation of the training loss of devices varies around 0.103.
- Abstract(参考訳): フェデレーション学習(FL)は、エネルギー、時間、プライバシの観点からデータ収集コストを回避することにより、モノのインターネット(IoT)デバイスにおける予測モデルトレーニングを促進する。
iotデバイスが達成した学習成果を,そのユーティリティとして参加コストに対してモデル化する。
デバイスの不均一性のため、局所的なモデル学習コストとその品質は、時間的に異なるが、デバイスごとに異なる。
同一のグローバルモデルがデバイス間で共有されているため,この変動が実用上の不公平をもたらすことを示す。
デフォルトでは、マスターはデバイスのローカルモデル計算と送信コストに気付かないため、実用上の不公平な問題に対処できない。
また、このマスターの知識の欠如を利用して、その支出を意図的に減らし、実用性を高めることができる。
我々は,各ラウンドにおいて,その貢献と支出に基づいて,デバイスと共有するグローバルモデルの品質を制御することを提案する。
これは、差分プライバシを使用して、学習貢献に基づいてグローバルモデルダイオージェンスを縮小することで達成される。
さらに,有効性の不公平性を軽減するため,各デバイスに対して適応計算と伝送ポリシーを考案した。
提案手法は,機器のトレーニング損失の標準偏差が約0.103であるのに対して,ベンチマーク方式と比較して,機器のエネルギーコストの標準偏差を99%削減することを示す。
関連論文リスト
- Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - SAFE: Machine Unlearning With Shard Graphs [100.12621304361288]
本稿では,大規模モデルを多種多様なデータ集合に適応させる手法であるSynergy Aware Forgetting Ensemble (SAFE)を提案する。
SAFEは軽量なアダプタシステムを使用し、ほとんどの計算を再利用しながらトレーニングすることができる。
これにより、SAFEは現在の最先端の方法よりも小さなシャードの順序でトレーニングすることができる。
論文 参考訳(メタデータ) (2023-04-25T22:02:09Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Comparative assessment of federated and centralized machine learning [0.0]
Federated Learning(FL)は、デバイス間でフェデレーションされたデータによってトレーニングが行われる、プライバシ保護機械学習スキームである。
本稿では,非IID分散データの性質から,フェデレーション学習に影響を及ぼす諸要因について論じる。
トレーニング対象のモデルサイズが合理的に大きくない場合には,フェデレーション学習がコスト面で有利であることを示す。
論文 参考訳(メタデータ) (2022-02-03T11:20:47Z) - Utility Fairness for the Differentially Private Federated Learning [17.80537343658936]
フェデレートラーニング(FL)は、無線モノのインターネット(IoT)ネットワークにおいて、知覚されたデータに対する予測モデルトレーニングを可能にする。
我々は,各ラウンドでデバイスと共有されるグローバルモデルの品質を,その貢献と支出に基づいて制御することを提案する。
提案手法は, ベンチマーク方式と比較して, 機器のエネルギーコストの標準偏差を99%低減することを示した。
論文 参考訳(メタデータ) (2021-09-11T12:09:04Z) - An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach [75.08185720590748]
Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
論文 参考訳(メタデータ) (2020-09-22T01:50:39Z) - Trading Data For Learning: Incentive Mechanism For On-Device Federated
Learning [25.368195601622688]
フェデレートラーニング(Federated Learning)とは、さまざまなデバイスに分散したグローバルモデルのトレーニングの概念である。
この設定では、ユーザのデバイスが自身のデータ上で計算を行い、その結果をクラウドサーバと共有し、グローバルモデルを更新します。
ユーザは、フェデレートされたモデルトレーニングプロセス中に、ローカルデータのプライバシリークに悩まされる。
本稿では、信頼性の高いデータを提供する可能性の高いユーザを選択し、プライバシリークのコストを補償する効果的なインセンティブメカニズムを提案する。
論文 参考訳(メタデータ) (2020-09-11T18:37:58Z) - Cost-aware Feature Selection for IoT Device Classification [6.193853963672491]
私たちは、機能抽出にはコストがあり、異なる機能に対してコストが異なると論じています。
そこで我々は,クロスエントロピー(CE)に基づく最適化手法を用いて,高速かつ効率的な解法を提案する。
論文 参考訳(メタデータ) (2020-09-02T22:16:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。