論文の概要: Utility Fairness for the Differentially Private Federated Learning
- arxiv url: http://arxiv.org/abs/2109.05267v1
- Date: Sat, 11 Sep 2021 12:09:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:31:35.520802
- Title: Utility Fairness for the Differentially Private Federated Learning
- Title(参考訳): 異なる個人的フェデレーション学習のためのユーティリティフェアネス
- Authors: Sheeraz A. Alvi, Yi Hong, and Salman Durrani
- Abstract要約: フェデレートラーニング(FL)は、無線モノのインターネット(IoT)ネットワークにおいて、知覚されたデータに対する予測モデルトレーニングを可能にする。
我々は,各ラウンドでデバイスと共有されるグローバルモデルの品質を,その貢献と支出に基づいて制御することを提案する。
提案手法は, ベンチマーク方式と比較して, 機器のエネルギーコストの標準偏差を99%低減することを示した。
- 参考スコア(独自算出の注目度): 17.80537343658936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows predictive model training on the sensed data
in a wireless Internet of things (IoT) network evading data collection cost in
terms of energy, time, and privacy. In this paper, for a FL setting, we model
the learning gain achieved by an IoT device against its participation cost as
its utility. The local model quality and the associated cost differs from
device to device due to the device-heterogeneity which could be time-varying.
We identify that this results in utility unfairness because the same global
model is shared among the devices. In the vanilla FL setting, the master is
unaware of devices' local model computation and transmission costs, thus it is
unable to address the utility unfairness problem. In addition, a device may
exploit this lack of knowledge at the master to intentionally reduce its
expenditure and thereby boost its utility. We propose to control the quality of
the global model shared with the devices, in each round, based on their
contribution and expenditure. This is achieved by employing differential
privacy to curtail global model divulgence based on the learning contribution.
Furthermore, we devise adaptive computation and transmission policies for each
device to control its expenditure in order to mitigate utility unfairness. Our
results show that the proposed scheme reduces the standard deviation of the
energy cost of devices by 99% in comparison to the benchmark scheme, while the
standard deviation of the training loss of devices varies around 0.103.
- Abstract(参考訳): フェデレートラーニング(FL)は、エネルギー、時間、プライバシの観点からデータ収集コストを回避するために、無線IoT(Internet of Things)ネットワークにおける知覚されたデータの予測モデルトレーニングを可能にする。
本稿では,iotデバイスが達成した学習成果をfl設定のために,その参加コストを有効性としてモデル化する。
局所的なモデルの品質と関連するコストは、デバイス間の時間的変化によって異なる。
同一のグローバルモデルがデバイス間で共有されているため,この結果が有効不公平であることが確認できた。
バニラfl設定では、マスターはデバイスの局所的なモデル計算と伝送コストを知らないため、実用上の不公平な問題に対処できない。
さらに、このマスターの知識の欠如を利用して故意に支出を削減し、それによって有用性を高めることができる。
我々は,各ラウンドにおいて,その貢献と支出に基づいて,デバイスと共有するグローバルモデルの品質を制御することを提案する。
これは、差分プライバシを使用して、学習貢献に基づいてグローバルモデルダイオージェンスを縮小することで達成される。
さらに,有効性の不公平性を軽減するため,各デバイスに対して適応計算と伝送ポリシーを考案した。
提案手法は,機器のトレーニング損失の標準偏差が約0.103であるのに対して,ベンチマーク方式と比較して,機器のエネルギーコストの標準偏差を99%削減することを示す。
関連論文リスト
- Learn More by Using Less: Distributed Learning with Energy-Constrained Devices [3.730504020733928]
Federated Learning(FL)は、分散モデルトレーニングのソリューションとして、分散化されたプライバシ保護デバイスに登場した。
本稿では,電池に制約のあるデバイス上でのクライアント選択とトレーニング作業の最適化を目的とした,エネルギーを意識したFLフレームワークであるLeanFedを提案する。
論文 参考訳(メタデータ) (2024-12-03T09:06:57Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - SAFE: Machine Unlearning With Shard Graphs [100.12621304361288]
本稿では,大規模モデルを多種多様なデータ集合に適応させる手法であるSynergy Aware Forgetting Ensemble (SAFE)を提案する。
SAFEは軽量なアダプタシステムを使用し、ほとんどの計算を再利用しながらトレーニングすることができる。
これにより、SAFEは現在の最先端の方法よりも小さなシャードの順序でトレーニングすることができる。
論文 参考訳(メタデータ) (2023-04-25T22:02:09Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Federated Learning Cost Disparity for IoT Devices [14.549572369644732]
フェデレートラーニング(FL)は、データ収集コストを回避することにより、モノのインターネット(IoT)デバイスにおける予測モデルトレーニングを促進する。
我々は、IoTデバイスが実現した学習成果を、そのユーティリティとしての参加コストに対してモデル化する。
我々は,各ラウンドでデバイスと共有されるグローバルモデルの品質を,その貢献と支出に基づいて制御することを提案する。
論文 参考訳(メタデータ) (2022-04-17T15:49:35Z) - Comparative assessment of federated and centralized machine learning [0.0]
Federated Learning(FL)は、デバイス間でフェデレーションされたデータによってトレーニングが行われる、プライバシ保護機械学習スキームである。
本稿では,非IID分散データの性質から,フェデレーション学習に影響を及ぼす諸要因について論じる。
トレーニング対象のモデルサイズが合理的に大きくない場合には,フェデレーション学習がコスト面で有利であることを示す。
論文 参考訳(メタデータ) (2022-02-03T11:20:47Z) - An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach [75.08185720590748]
Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
論文 参考訳(メタデータ) (2020-09-22T01:50:39Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。