論文の概要: RealFM: A Realistic Mechanism to Incentivize Federated Participation and
Contribution
- arxiv url: http://arxiv.org/abs/2310.13681v2
- Date: Sun, 4 Feb 2024 19:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 04:29:38.755417
- Title: RealFM: A Realistic Mechanism to Incentivize Federated Participation and
Contribution
- Title(参考訳): RealFM:Federated ParticipationとContributionにインセンティブを与える現実的なメカニズム
- Authors: Marco Bornstein, Amrit Singh Bedi, Anit Kumar Sahu, Furqan Khan, and
Furong Huang
- Abstract要約: フェデレーション学習(FL)におけるエッジデバイス参加は、通常、デバイスサーバ間通信(デバイスドロップアウトなど)のレンズの下で研究される。
本稿では,デバイスユーティリティを現実的にモデル化する最初のフェデレーション機構であるRealFMを提案する。(2)データコントリビューションとデバイス参加のインセンティブ,(3)フリーライダージレンマを確実に取り除き,(4)データの均一性,データ共有,金銭的報酬支払いに関する仮定を緩和する。
実世界のデータでは、RealFMはデバイスユーティリティとサーバユーティリティ、データコントリビューションを、ベースラインと比較してそれぞれ3倍と4倍改善する。
- 参考スコア(独自算出の注目度): 32.45353079584139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge device participation in federating learning (FL) is typically studied
under the lens of device-server communication (e.g., device dropout) and
assumes an undying desire from edge devices to participate in FL. As a result,
current FL frameworks are flawed when implemented in realistic settings, with
many encountering the free-rider dilemma. In a step to push FL towards
realistic settings, we propose RealFM: the first federated mechanism that (1)
realistically models device utility, (2) incentivizes data contribution and
device participation, (3) provably removes the free-rider dilemma, and (4)
relaxes assumptions on data homogeneity, data sharing, and monetary reward
payments. Compared to previous FL mechanisms, RealFM allows for a non-linear
relationship between model accuracy and utility, which improves the utility
gained by the server and participating devices. On real-world data, RealFM
improves device and server utility, as well as data contribution, by over 3 and
4 magnitudes respectively compared to baselines.
- Abstract(参考訳): フェデレーション学習(FL)におけるエッジデバイス参加は、通常はデバイスサーバ間通信(例えばデバイスドロップアウト)のレンズの下で研究され、エッジデバイスからFLへの参加を望まないと仮定される。
その結果、現在のFLフレームワークは現実的な設定で実装する際に欠陥があり、その多くがフリーライダージレンマに遭遇している。
FLを現実的な状況に進める第1のメカニズムであるRealFMを提案する。(1)デバイスユーティリティを現実的にモデル化し、(2)データコントリビューションとデバイス参加をインセンティブ化し、(3)フリーライダージレンマを確実に取り除き、(4)データ均一性、データ共有、および金銭報酬支払いに関する仮定を緩和する。
以前のfl機構と比較して、realfmはモデル精度とユーティリティの非線形関係を可能にし、サーバと参加者デバイスによって得られるユーティリティを改善する。
実世界のデータでは、RealFMはデバイスユーティリティとサーバユーティリティ、データコントリビューションを、ベースラインと比較してそれぞれ3倍と4倍改善する。
関連論文リスト
- AEDFL: Efficient Asynchronous Decentralized Federated Learning with
Heterogeneous Devices [61.66943750584406]
異種環境におけるAEDFL(Asynchronous Efficient Decentralized FL framework)を提案する。
まず、FL収束を改善するための効率的なモデル集約手法を用いた非同期FLシステムモデルを提案する。
次に,より優れた精度を実現するために,動的安定化を考慮したモデル更新手法を提案する。
第3に,通信コストと計算コストを大幅に削減する適応スパース学習法を提案する。
論文 参考訳(メタデータ) (2023-12-18T05:18:17Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Fed-FSNet: Mitigating Non-I.I.D. Federated Learning via Fuzzy
Synthesizing Network [19.23943687834319]
フェデレートラーニング(FL)は、将来性のあるプライバシ保護分散機械学習フレームワークとして登場した。
我々は、Fed-FSNetと呼ばれる新しいFLトレーニングフレームワークを提案し、Fed-FSNet(Fed-FSNet)を適切に設計し、非I.I.D.のオープンソース問題を軽減する。
論文 参考訳(メタデータ) (2022-08-21T18:40:51Z) - FLAME: Federated Learning Across Multi-device Environments [9.810211000961647]
Federated Learning (FL)は、マシンラーニングモデルの分散トレーニングを可能にし、ユーザデバイス上の個人情報をプライベートに保持する。
ユーザ中心のFLAME学習手法であるFLAMEを提案する。
その結果,FLAMEはF-1スコアが4.8~33.8%,エネルギー効率が1.02~2.86倍,収束速度が2.02倍に向上した。
論文 参考訳(メタデータ) (2022-02-17T22:23:56Z) - Asynchronous Federated Learning for Sensor Data with Concept Drift [17.390098048134195]
フェデレートラーニング(FL)では、複数の分散デバイスが共有モデルを共同でトレーニングする。
以前のFLアプローチのほとんどは、トレーニングプロセス中にデバイス上のデータが固定され、静止していると仮定している。
コンセプトドリフトは、既存のデータと今後のデータの間に矛盾があるため、学習プロセスを複雑にします。
本稿では,ローカルデバイス上でのドリフトを検知し,対処するための新しいアプローチであるFedConDを提案する。
論文 参考訳(メタデータ) (2021-09-01T02:06:42Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z) - An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach [75.08185720590748]
Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
論文 参考訳(メタデータ) (2020-09-22T01:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。