論文の概要: RealFM: A Realistic Mechanism to Incentivize Data Contribution and
Device Participation
- arxiv url: http://arxiv.org/abs/2310.13681v1
- Date: Fri, 20 Oct 2023 17:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 21:32:08.301387
- Title: RealFM: A Realistic Mechanism to Incentivize Data Contribution and
Device Participation
- Title(参考訳): RealFM: データコントリビューションとデバイス参加をインセンティブ化する現実的なメカニズム
- Authors: Marco Bornstein, Amrit Singh Bedi, Anit Kumar Sahu, Furqan Khan, and
Furong Huang
- Abstract要約: 本稿では,デバイスユーティリティを現実的にモデル化したRealFMを提案する。
RealFMはデータ共有を必要とせず、モデル精度と実用性の間の非線形関係を可能にする。
実世界のデータでは、RealFMはデバイスユーティリティとサーバユーティリティ、データコントリビューションをそれぞれ最大3グレードと7倍改善する。
- 参考スコア(独自算出の注目度): 32.45353079584139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge device participation in federating learning (FL) has been typically
studied under the lens of device-server communication (e.g., device dropout)
and assumes an undying desire from edge devices to participate in FL. As a
result, current FL frameworks are flawed when implemented in real-world
settings, with many encountering the free-rider problem. In a step to push FL
towards realistic settings, we propose RealFM: the first truly federated
mechanism which (1) realistically models device utility, (2) incentivizes data
contribution and device participation, and (3) provably removes the free-rider
phenomena. RealFM does not require data sharing and allows for a non-linear
relationship between model accuracy and utility, which improves the utility
gained by the server and participating devices compared to non-participating
devices as well as devices participating in other FL mechanisms. On real-world
data, RealFM improves device and server utility, as well as data contribution,
by up to 3 magnitudes and 7x respectively compared to baseline mechanisms.
- Abstract(参考訳): フェデレーション学習(FL)におけるエッジデバイス参加は、デバイスサーバ間通信(例えば、デバイスドロップアウト)のレンズの下で研究され、エッジデバイスがFLに参加するという望ましくない要求を前提としている。
その結果、現在のFLフレームワークは現実世界で実装する際に欠陥があり、フリーライダーの問題に遭遇することが多い。
FLを現実的な環境に向ける第一歩として,(1)デバイスユーティリティを現実的にモデル化し,(2)データコントリビューションとデバイス参加をインセンティブ化し,(3)フリーライダー現象を確実に除去する,初の真のフェデレーション機構であるRealFMを提案する。
realfmはデータ共有を必要とせず、モデル精度とユーティリティの非線形関係を可能にするため、非参加デバイスや他のflメカニズムに参加しているデバイスと比較して、サーバと参加者デバイスによって得られるユーティリティを改善します。
実世界のデータでは、RealFMはデバイスユーティリティとサーバユーティリティ、データコントリビューションを、それぞれベースラインメカニズムと比較して最大3等級と7倍改善する。
関連論文リスト
- AEDFL: Efficient Asynchronous Decentralized Federated Learning with
Heterogeneous Devices [61.66943750584406]
異種環境におけるAEDFL(Asynchronous Efficient Decentralized FL framework)を提案する。
まず、FL収束を改善するための効率的なモデル集約手法を用いた非同期FLシステムモデルを提案する。
次に,より優れた精度を実現するために,動的安定化を考慮したモデル更新手法を提案する。
第3に,通信コストと計算コストを大幅に削減する適応スパース学習法を提案する。
論文 参考訳(メタデータ) (2023-12-18T05:18:17Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Fed-FSNet: Mitigating Non-I.I.D. Federated Learning via Fuzzy
Synthesizing Network [19.23943687834319]
フェデレートラーニング(FL)は、将来性のあるプライバシ保護分散機械学習フレームワークとして登場した。
我々は、Fed-FSNetと呼ばれる新しいFLトレーニングフレームワークを提案し、Fed-FSNet(Fed-FSNet)を適切に設計し、非I.I.D.のオープンソース問題を軽減する。
論文 参考訳(メタデータ) (2022-08-21T18:40:51Z) - FLAME: Federated Learning Across Multi-device Environments [9.810211000961647]
Federated Learning (FL)は、マシンラーニングモデルの分散トレーニングを可能にし、ユーザデバイス上の個人情報をプライベートに保持する。
ユーザ中心のFLAME学習手法であるFLAMEを提案する。
その結果,FLAMEはF-1スコアが4.8~33.8%,エネルギー効率が1.02~2.86倍,収束速度が2.02倍に向上した。
論文 参考訳(メタデータ) (2022-02-17T22:23:56Z) - Asynchronous Federated Learning for Sensor Data with Concept Drift [17.390098048134195]
フェデレートラーニング(FL)では、複数の分散デバイスが共有モデルを共同でトレーニングする。
以前のFLアプローチのほとんどは、トレーニングプロセス中にデバイス上のデータが固定され、静止していると仮定している。
コンセプトドリフトは、既存のデータと今後のデータの間に矛盾があるため、学習プロセスを複雑にします。
本稿では,ローカルデバイス上でのドリフトを検知し,対処するための新しいアプローチであるFedConDを提案する。
論文 参考訳(メタデータ) (2021-09-01T02:06:42Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z) - An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach [75.08185720590748]
Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
論文 参考訳(メタデータ) (2020-09-22T01:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。