論文の概要: FACT or Fiction: Can Truthful Mechanisms Eliminate Federated Free Riding?
- arxiv url: http://arxiv.org/abs/2405.13879v2
- Date: Sat, 26 Oct 2024 19:22:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 16:00:32.418572
- Title: FACT or Fiction: Can Truthful Mechanisms Eliminate Federated Free Riding?
- Title(参考訳): FACTかFctionか: 真のメカニズムはフリーライドを排除できるか?
- Authors: Marco Bornstein, Amrit Singh Bedi, Abdirisak Mohamed, Furong Huang,
- Abstract要約: 標準フェデレーション学習アプローチはフリーライダージレンマに対して脆弱である。
実際には、敵エージェントはサーバに誤った情報を提供して、貢献から遠ざかることができる。
本稿では,FACTによるフリーライディング・アバース・フェデレーション機構の真偽化を提案する。
- 参考スコア(独自算出の注目度): 31.88203363610825
- License:
- Abstract: Standard federated learning (FL) approaches are vulnerable to the free-rider dilemma: participating agents can contribute little to nothing yet receive a well-trained aggregated model. While prior mechanisms attempt to solve the free-rider dilemma, none have addressed the issue of truthfulness. In practice, adversarial agents can provide false information to the server in order to cheat its way out of contributing to federated training. In an effort to make free-riding-averse federated mechanisms truthful, and consequently less prone to breaking down in practice, we propose FACT. FACT is the first federated mechanism that: (1) eliminates federated free riding by using a penalty system, (2) ensures agents provide truthful information by creating a competitive environment, and (3) encourages agent participation by offering better performance than training alone. Empirically, FACT avoids free-riding when agents are untruthful, and reduces agent loss by over 4x.
- Abstract(参考訳): 標準連合学習(FL)アプローチは、フリーライダージレンマに対して脆弱である。
それまでのメカニズムは自由度ジレンマを解こうとしていたが、真理性の問題に対処する者はいなかった。
実際には、敵エージェントは、フェデレーショントレーニングへの貢献を騙すために、サーバに偽の情報を提供することができる。
フリーライディング・アバース・フェデレーション機構を真にし、その結果、実際に故障しにくくする試みとして、FACTを提案する。
FACTは,(1)ペナルティシステムを用いてフェデレーションフリーライディングを排除し,(2)競争環境を構築することによってエージェントが真に情報を提供し,(3)トレーニング単独よりも優れたパフォーマンスを提供することでエージェントの参加を促す,最初のフェデレーション機構である。
実証的に、FACTは、エージェントが不合理であるときにフリーライディングを回避し、エージェントの損失を4倍以上削減する。
関連論文リスト
- FRIDA: Free-Rider Detection using Privacy Attacks [2.298325823708695]
プライバシ攻撃を用いたフリーライダー検出のためのFRIDAを提案する。
FRIDAは、基礎となるトレーニングデータセットの詳細を直接推論し、フリーライダーの振る舞いを示す特徴を明らかにする。
評価の結果,FRIDAは最先端の手法,特に非IID環境では優れていた。
論文 参考訳(メタデータ) (2024-10-07T13:20:26Z) - Incentivized Truthful Communication for Federated Bandits [61.759855777522255]
我々はTrath-FedBanという名前のインセンティブ互換通信プロトコルを提案する。
Truth-FedBanは、オーバーヘッドなしにサブ線形後悔と通信コストを保証します。
論文 参考訳(メタデータ) (2024-02-07T00:23:20Z) - FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks [8.866045560761528]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、共同で機械学習モデルをトレーニングする分散学習プロセスである。
近年の研究では、FLに対する推論および中毒攻撃の有効性が示されている。
FLEDGEと呼ばれる台帳ベースのFLフレームワークは、当事者が行動に責任を負わせ、推論や毒殺攻撃を緩和するための合理的な効率性を実現する。
論文 参考訳(メタデータ) (2023-10-03T14:55:30Z) - Incentivized Communication for Federated Bandits [67.4682056391551]
我々は,サーバがインセンティブを提供することでクライアントにデータを共有する動機付けを行う,フェデレートされた盗賊に対するインセンティブ付きコミュニケーション問題を導入する。
本稿では,実証可能な通信とインセンティブコスト保証により,ほぼ最適の後悔を実現する,最初のインセンティブ付き通信プロトコルであるInc-FedUCBを提案する。
論文 参考訳(メタデータ) (2023-09-21T00:59:20Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - Semi-supervised reward learning for offline reinforcement learning [71.6909757718301]
トレーニングエージェントは通常、報酬機能が必要ですが、報酬は実際にはほとんど利用できず、エンジニアリングは困難で手間がかかります。
限定されたアノテーションから学習し,ラベルなしデータを含む半教師付き学習アルゴリズムを提案する。
シミュレーションロボットアームを用いた実験では,動作のクローン化が大幅に向上し,真理の報奨によって達成される性能に近づいた。
論文 参考訳(メタデータ) (2020-12-12T20:06:15Z) - A Reputation Mechanism Is All You Need: Collaborative Fairness and
Adversarial Robustness in Federated Learning [24.442595192268872]
フェデレーション・ラーニング(FL)は、効果的でスケーラブルな機械学習のための新しい実践的フレームワークである。
従来のFLでは、すべての参加者がグローバルモデル(平等報酬)を受け取り、これはハイコントリビューションの参加者にとって不公平かもしれない。
評価機構を用いて協調的公正性と対向的ロバスト性を同時に実現するための新しいRFFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-20T15:52:45Z) - BlockFLow: An Accountable and Privacy-Preserving Solution for Federated
Learning [2.0625936401496237]
BlockFLowは、完全な分散化とプライバシ保護を備えた、説明可能なフェデレーション学習システムである。
その主な目標は、基盤となるデータセットのプライバシ保護と悪意のある敵に対する耐性を確保しながら、コントリビューションの品質に比例するエージェントに報酬を与えることである。
論文 参考訳(メタデータ) (2020-07-08T02:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。