論文の概要: CoSIFL: Collaborative Secure and Incentivized Federated Learning with Differential Privacy
- arxiv url: http://arxiv.org/abs/2509.23190v1
- Date: Sat, 27 Sep 2025 08:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.095514
- Title: CoSIFL: Collaborative Secure and Incentivized Federated Learning with Differential Privacy
- Title(参考訳): CoSIFL: 異なるプライバシによる協調的セキュアとインセンティブ付きフェデレーション学習
- Authors: Zhanhong Xie, Meifan Zhang, Lihua Yin,
- Abstract要約: CoSIFLは、堅牢なセキュリティとローカルディファレンシャルプライバシのためのプロアクティブアラームを統合するフレームワークである。
Tullockコンテストにインスパイアされたインセンティブモジュールは、データコントリビューションと信頼性の高いアラームトリガーの両方に対して、誠実なクライアントに報いる。
サーバ・クライアント・ゲームはユニークな平衡性を認めており、クライアントの多次元属性(例えば、IIDの学位やプライバシー予算など)がシステム効率にどのように影響を与えるかを分析する。
- 参考スコア(独自算出の注目度): 1.1266158555540042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has emerged as a promising paradigm for collaborative model training while preserving data locality. However, it still faces challenges from malicious or compromised clients, as well as difficulties in incentivizing participants to contribute high-quality data under strict privacy requirements. Motivated by these considerations, we propose CoSIFL, a novel framework that integrates proactive alarming for robust security and local differential privacy (LDP) for inference attacks, together with a Stackelberg-based incentive scheme to encourage client participation and data sharing. Specifically, CoSIFL uses an active alarming mechanism and robust aggregation to defend against Byzantine and inference attacks, while a Tullock contest-inspired incentive module rewards honest clients for both data contributions and reliable alarm triggers. We formulate the interplay between the server and clients as a two-stage game: in the first stage, the server determines total rewards, selects participants, and fixes global iteration settings, whereas in the second stage, each client decides its mini-batch size, privacy noise scale, and alerting strategy. We prove that the server-client game admits a unique equilibrium, and analyze how clients' multi-dimensional attributes - such as non-IID degrees and privacy budgets - jointly affect system efficiency. Experimental results on standard benchmarks demonstrate that CoSIFL outperforms state-of-the-art solutions in improving model robustness and reducing total server costs, highlighting the effectiveness of our integrated design.
- Abstract(参考訳): フェデレートラーニング(FL)は、データの局所性を維持しながら協調的なモデルトレーニングのための有望なパラダイムとして登場した。
しかし、悪意のあるクライアントや侵害されたクライアントからの問題や、厳格なプライバシー要件の下で高品質なデータの提供を参加者に奨励することの難しさには、依然として直面している。
これらの考察により、我々は、クライアントの参加とデータ共有を促進するStackelbergベースのインセンティブスキームとともに、堅牢なセキュリティのための積極的なアラームと、推論攻撃のためのローカルディファレンシャルプライバシ(LDP)を統合する新しいフレームワークであるCoSIFLを提案する。
具体的には、CoSIFLはアクティブアラーム機構とロバストアグリゲーションを使用して、ビザンチンと推論攻撃を防御し、Tullockコンテストにインスパイアされたインセンティブモジュールは、データコントリビューションと信頼できるアラームトリガの両方に対して、誠実なクライアントに報酬を与える。
第1段階では、サーバが全報酬を決定し、参加者を選択し、グローバルなイテレーション設定を修正し、第2段階では、各クライアントがミニバッチサイズ、プライバシノイズスケール、警告戦略を決定する。
サーバ・クライアント・ゲームはユニークな平衡性を認めており、クライアントの多次元属性(例えば、IIDの学位やプライバシー予算など)がシステム効率にどのように影響を与えるかを分析する。
標準ベンチマーク実験の結果,CoSIFLはモデルロバスト性の向上とサーバ全体のコスト削減において最先端のソリューションよりも優れており,統合設計の有効性を強調している。
関連論文リスト
- Decentralized Dynamic Cooperation of Personalized Models for Federated Continual Learning [50.56947843548702]
フェデレーション型連続学習のための分散動的協調フレームワークを提案する。
顧客は、新しい知識の獲得と事前学習の維持のバランスをとるために、動的な協調学習連合を確立する。
また、協調的・動的平衡を達成するために、マージブロックアルゴリズムと動的協調的進化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-28T06:53:23Z) - Optimal Client Sampling in Federated Learning with Client-Level Heterogeneous Differential Privacy [8.683908900328237]
プライバシー予算に基づいてクライアントをグループに分割し,各グループ内のクライアントレベルのDPを実現し,プライバシー予算の無駄を削減するGDPFedを提案する。
また、GDPFed$+$を導入することで、不要なノイズを排除し、グループごとのクライアントサンプリング比率を最適化します。
論文 参考訳(メタデータ) (2025-05-19T18:55:34Z) - Trust Driven On-Demand Scheme for Client Deployment in Federated Learning [39.9947471801304]
Trusted-On-Demand-FL"は、サーバと資格のあるクライアントのプールの間の信頼関係を確立する。
シミュレーションでは,遺伝的アルゴリズムを応用した最適化モデルをデプロイし,連続的なユーザ行動データセットに頼っている。
論文 参考訳(メタデータ) (2024-05-01T08:50:08Z) - FedGT: Identification of Malicious Clients in Federated Learning with Secure Aggregation [69.75513501757628]
FedGTは、フェデレーション学習における悪意のあるクライアントを安全なアグリゲーションで識別するための新しいフレームワークである。
我々はPillutlaらによって最近提案された幾何的中央値に基づいて,FedGTがプライベートロバストアグリゲーションアプローチを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。