論文の概要: FRIDA: Free-Rider Detection using Privacy Attacks
- arxiv url: http://arxiv.org/abs/2410.05020v1
- Date: Mon, 7 Oct 2024 13:20:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-02 00:48:04.688927
- Title: FRIDA: Free-Rider Detection using Privacy Attacks
- Title(参考訳): FRIDA:プライバシ攻撃を用いたフリーライダー検出
- Authors: Pol G. Recasens, Ádám Horváth, Alberto Gutierrez-Torre, Jordi Torres, Josep Ll. Berral, Balázs Pejó,
- Abstract要約: プライバシ攻撃を用いたフリーライダー検出のためのFRIDAを提案する。
FRIDAは、基礎となるトレーニングデータセットの詳細を直接推論し、フリーライダーの振る舞いを示す特徴を明らかにする。
評価の結果,FRIDAは最先端の手法,特に非IID環境では優れていた。
- 参考スコア(独自算出の注目度): 2.298325823708695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is increasingly popular as it enables multiple parties with limited datasets and resources to train a high-performing machine learning model collaboratively. However, similarly to other collaborative systems, federated learning is vulnerable to free-riders -- participants who do not contribute to the training but still benefit from the shared model. Free-riders not only compromise the integrity of the learning process but also slow down the convergence of the global model, resulting in increased costs for the honest participants. To address this challenge, we propose FRIDA: free-rider detection using privacy attacks, a framework that leverages inference attacks to detect free-riders. Unlike traditional methods that only capture the implicit effects of free-riding, FRIDA directly infers details of the underlying training datasets, revealing characteristics that indicate free-rider behaviour. Through extensive experiments, we demonstrate that membership and property inference attacks are effective for this purpose. Our evaluation shows that FRIDA outperforms state-of-the-art methods, especially in non-IID settings.
- Abstract(参考訳): フェデレーション学習は、限られたデータセットとリソースを持つ複数のパーティが、高性能な機械学習モデルを協調的にトレーニングできるようにすることで、ますます人気が高まっている。
しかし、他のコラボレーティブシステムと同様に、フェデレートされた学習はフリーライダーに対して脆弱である。
フリーライダーは学習プロセスの完全性を損なうだけでなく、グローバルモデルの収束を遅くする。
この課題に対処するために、プライバシ攻撃を用いたフリーライダー検出(FRIDA:free-rider detection)を提案する。
フリーライディングの暗黙的な効果のみをキャプチャする従来の方法とは異なり、FRIDAは基礎となるトレーニングデータセットの詳細を直接推論し、フリーライダの振る舞いを示す特徴を明らかにする。
広範な実験を通じて,この目的のために,メンバシップとプロパティ推論攻撃が有効であることを示す。
評価の結果,FRIDAは最先端の手法,特に非IID環境では優れていた。
関連論文リスト
- BadFU: Backdoor Federated Learning through Adversarial Machine Unlearning [7.329446721934861]
フェデレートラーニング(FL)は、分散トレーニングパラダイムとして広く採用されている。
本稿では,フェデレーション・アンラーニングの文脈における最初のバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2025-08-21T13:17:01Z) - Federated Testing (FedTest): A New Scheme to Enhance Convergence and Mitigate Adversarial Attacks in Federating Learning [35.14491996649841]
フェデレーション学習のためのフェデレーションテスト(FedTest)と呼ばれる新しいフェデレーション学習フレームワークを導入する。
FedTestでは、特定のユーザのローカルデータは、そのユーザのモデルをトレーニングし、他のユーザのモデルをテストするために使用されます。
数値解析の結果,提案手法は収束率を加速するだけでなく,悪意のあるユーザの影響を低減させる。
論文 参考訳(メタデータ) (2025-01-19T21:01:13Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Guaranteeing Data Privacy in Federated Unlearning with Dynamic User Participation [21.07328631033828]
フェデレート・アンラーニング(FU)は、訓練されたグローバルなFLモデルから、フェデレート・ラーニング(FL)ユーザーのデータの影響を排除できる。
単純なFUメソッドでは、未学習のユーザを削除し、その後、残りのすべてのユーザとスクラッチから新しいグローバルFLモデルを再トレーニングする。
本稿では、動的ユーザ参加を効果的に管理しつつ、プライバシを確保することを目的とした、プライバシ保護のためのFUフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-03T03:39:07Z) - Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks [8.866045560761528]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、共同で機械学習モデルをトレーニングする分散学習プロセスである。
近年の研究では、FLに対する推論および中毒攻撃の有効性が示されている。
FLEDGEと呼ばれる台帳ベースのFLフレームワークは、当事者が行動に責任を負わせ、推論や毒殺攻撃を緩和するための合理的な効率性を実現する。
論文 参考訳(メタデータ) (2023-10-03T14:55:30Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Ensemble Federated Adversarial Training with Non-IID data [1.5878082907673585]
敵対的なサンプルは、悪意のある目的を達成するためにクライアントモデルを混乱させ、騙すことができます。
本稿では, EFAT(Ensemble Federated Adversarial Training Method)について紹介する。
提案手法は,フェデレーション学習と敵対的アプローチを単独で組み合わせた場合と比較して,有望な結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T03:55:20Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Towards Causal Federated Learning For Enhanced Robustness and Privacy [5.858642952428615]
フェデレーションラーニングは、新たなプライバシー保護型分散機械学習アプローチである。
参加するすべてのクライアントにまたがるデータサンプルは通常独立ではなく、同一に配布される。
本稿では,連帯学習環境において,参加するすべてのクライアントに共通する不変(causal)特徴の学習手法を提案する。
論文 参考訳(メタデータ) (2021-04-14T00:08:45Z) - A Reputation Mechanism Is All You Need: Collaborative Fairness and
Adversarial Robustness in Federated Learning [24.442595192268872]
フェデレーション・ラーニング(FL)は、効果的でスケーラブルな機械学習のための新しい実践的フレームワークである。
従来のFLでは、すべての参加者がグローバルモデル(平等報酬)を受け取り、これはハイコントリビューションの参加者にとって不公平かもしれない。
評価機構を用いて協調的公正性と対向的ロバスト性を同時に実現するための新しいRFFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-20T15:52:45Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Free-rider Attacks on Model Aggregation in Federated Learning [10.312968200748116]
本稿では,反復パラメータアグリゲーションに基づくフェデレーション学習スキームに対するフリーライダー攻撃の理論的および実験的解析について紹介する。
我々は、これらの攻撃が公正な参加者の集約されたモデルに収束することを正式に保証する。
我々は,フェデレートラーニングの現実的応用において,フリーライダー攻撃を避けるための勧告を提供することで結論付けた。
論文 参考訳(メタデータ) (2020-06-21T20:20:38Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。