論文の概要: Private and Robust Contribution Evaluation in Federated Learning
- arxiv url: http://arxiv.org/abs/2602.21721v1
- Date: Wed, 25 Feb 2026 09:27:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.777843
- Title: Private and Robust Contribution Evaluation in Federated Learning
- Title(参考訳): フェデレーション学習における個人的・ロバスト的貢献評価
- Authors: Delio Jaramillo Velez, Gergely Biczok, Alexandre Graell i Amat, Johan Ostman, Balazs Pejo,
- Abstract要約: クロスサイロフェデレーション学習は、複数の組織が生データを共有せずに、協力的に機械学習モデルをトレーニングすることを可能にする。
セキュリティアグリゲーションは、個々の更新を隠すことによってプライバシを保護するが、コントリビューション評価を複雑にする。
安全なアグリゲーションに適合する2つの限界差コントリビューションスコアを導入する。
- 参考スコア(独自算出の注目度): 44.1965210509968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-silo federated learning allows multiple organizations to collaboratively train machine learning models without sharing raw data, but client updates can still leak sensitive information through inference attacks. Secure aggregation protects privacy by hiding individual updates, yet it complicates contribution evaluation, which is critical for fair rewards and detecting low-quality or malicious participants. Existing marginal-contribution methods, such as the Shapley value, are incompatible with secure aggregation, and practical alternatives, such as Leave-One-Out, are crude and rely on self-evaluation. We introduce two marginal-difference contribution scores compatible with secure aggregation. Fair-Private satisfies standard fairness axioms, while Everybody-Else eliminates self-evaluation and provides resistance to manipulation, addressing a largely overlooked vulnerability. We provide theoretical guarantees for fairness, privacy, robustness, and computational efficiency, and evaluate our methods on multiple medical image datasets and CIFAR10 in cross-silo settings. Our scores consistently outperform existing baselines, better approximate Shapley-induced client rankings, and improve downstream model performance as well as misbehavior detection. These results demonstrate that fairness, privacy, robustness, and practical utility can be achieved jointly in federated contribution evaluation, offering a principled solution for real-world cross-silo deployments.
- Abstract(参考訳): クロスサイロフェデレーション学習は、複数の組織が生データを共有せずに機械学習モデルを協調的にトレーニングすることを可能にするが、クライアントのアップデートは推論攻撃を通じて機密情報を漏洩させる可能性がある。
セキュリティアグリゲーションは、個々の更新を隠すことによってプライバシを保護するが、貢献評価が複雑になる。
シェープリー値のような既存の限界貢献手法は、安全な集約とは相容れないものであり、Leave-One-Outのような実践的な代替手段は粗末であり、自己評価に依存している。
安全なアグリゲーションに適合する2つの限界差コントリビューションスコアを導入する。
Fair-Privateは標準的なフェアネス公理を満たす一方、Everybody-Elseは自己評価を排除し、操作に対する抵抗を提供し、ほとんど見落とされた脆弱性に対処する。
我々は、公平性、プライバシ、堅牢性、計算効率の理論的保証を提供し、複数の医療画像データセットとCIFAR10をクロスサイロ環境で評価する。
我々のスコアは、既存のベースラインを一貫して上回り、Shapleyが引き起こしたクライアントのランキングをより良くし、下流モデルの性能を改善し、誤った振る舞いを検出する。
これらの結果から, 実世界のクロスサイロ展開において, 公正性, プライバシ, 堅牢性, 実用性が連携して達成できることが示唆された。
関連論文リスト
- GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks [56.983319121358555]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:02:45Z) - Enhancing Federated Survival Analysis through Peer-Driven Client Reputation in Healthcare [1.2289361708127877]
Federated Learningは、患者のデータのプライバシを損なうことなく、協調的なモデルトレーニングを可能にすることで、デジタルヘルスを大いに約束する。
本稿では、分散化されたピアフィードバックとクラスタリングに基づくノイズハンドリングを統合した、フェデレーション型医療のためのピア駆動評価機構を提案する。
クライアント側のモデル更新に差分プライバシを適用することで、評判計算中に機密情報が保護されることが保証される。
論文 参考訳(メタデータ) (2025-05-22T03:49:51Z) - Empirical Analysis of Privacy-Fairness-Accuracy Trade-offs in Federated Learning: A Step Towards Responsible AI [6.671649946926508]
フェデレーテッド・ラーニング(FL)におけるプライバシ・フェアネス・ユーティリティ・トレードオフに関する大規模な実証的研究について紹介する。
フェアネス・アウェアと差分プライバシー(DP)、同相暗号化(HE)、セキュアマルチパーティ暗号化(SMC)を比較した。
DPメカニズムは、公平性、歪み、公平性に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2025-03-20T15:31:01Z) - Do Fairness Interventions Come at the Cost of Privacy: Evaluations for Binary Classifiers [17.243744418309593]
我々は、メンバーシップ推論攻撃(MIA)と属性推論攻撃(AIA)により、公平性向上したバイナリ分類器のプライバシーリスクを評価する。
公正なモデルと偏見のあるモデルの間の予測不一致を利用して、MIAとAIAの両方に対する高度な攻撃結果をもたらす潜在的な脅威メカニズムを明らかにする。
本研究は、フェアネス研究における未調査のプライバシー上の脅威を明らかにし、モデル展開前に潜在的なセキュリティ脆弱性を徹底的に評価することを提唱する。
論文 参考訳(メタデータ) (2025-03-08T10:21:21Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Enabling Privacy-preserving Model Evaluation in Federated Learning via Fully Homomorphic Encryption [1.9662978733004604]
センシティブなデータを集中化せずにモデルを協調的にトレーニングする能力によって、フェデレートラーニングが急速に普及している。
評価フェーズでは、文献で適切に対処されていない重要なプライバシーリスクが提示される。
完全同型暗号を利用した新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T14:36:55Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。