論文の概要: Detect \& Score: Privacy-Preserving Misbehaviour Detection and Contribution Evaluation in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.23583v1
- Date: Mon, 30 Jun 2025 07:40:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.961353
- Title: Detect \& Score: Privacy-Preserving Misbehaviour Detection and Contribution Evaluation in Federated Learning
- Title(参考訳): Detect \& Score: フェデレーション学習におけるプライバシー保護のミス行動検出と貢献評価
- Authors: Marvin Xhemrishi, Alexandre Graell i Amat, Balázs Pejó,
- Abstract要約: セキュアアグリゲーションによるフェデレーション学習は、機密性の高いクライアント情報を漏洩することなく、分散データからプライベートおよびコラボレーティブな学習を可能にする。
コントリビューション評価(CE)と誤行動検出(MD)には,それぞれQIとFedGTが提案された。
我々はQIとFedGTの強みを組み合わせ、ロバストMDと正確なCEを両立させる。
- 参考スコア(独自算出の注目度): 57.35282510032077
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning with secure aggregation enables private and collaborative learning from decentralised data without leaking sensitive client information. However, secure aggregation also complicates the detection of malicious client behaviour and the evaluation of individual client contributions to the learning. To address these challenges, QI (Pejo et al.) and FedGT (Xhemrishi et al.) were proposed for contribution evaluation (CE) and misbehaviour detection (MD), respectively. QI, however, lacks adequate MD accuracy due to its reliance on the random selection of clients in each training round, while FedGT lacks the CE ability. In this work, we combine the strengths of QI and FedGT to achieve both robust MD and accurate CE. Our experiments demonstrate superior performance compared to using either method independently.
- Abstract(参考訳): セキュアアグリゲーションによるフェデレーション学習は、機密性の高いクライアント情報を漏洩することなく、分散データからプライベートおよびコラボレーティブな学習を可能にする。
しかし、セキュアアグリゲーションは、悪意のあるクライアントの振る舞いの検出と学習への個々のクライアント貢献の評価を複雑にする。
これらの課題に対処するため,QI (Pejo et al ) とFedGT (Xhemrishi et al ) をそれぞれ提案し,コントリビューション評価 (CE) と誤行動検出 (MD) を行った。
しかし、QIは各トレーニングラウンドにおけるクライアントのランダムな選択に依存するため、十分なMD精度を欠いているが、FedGTはCE能力を欠いている。
本研究では,QI と FedGT の強みを組み合わせ,頑健な MD と正確な CE を両立させる。
本実験は, いずれの手法も独立に使用する場合に比べ, 優れた性能を示す。
関連論文リスト
- TrustFed: A Reliable Federated Learning Framework with Malicious-Attack
Resistance [8.924352407824566]
フェデレートラーニング(FL)は、個々のデータのプライバシを確保しながら、複数のクライアント間で協調的な学習を可能にする。
本稿では,階層型監査に基づくFL(HiAudit-FL)フレームワークを提案する。
シミュレーションの結果、HiAudit-FLは、システムオーバーヘッドを小さくして、潜在的悪意のあるユーザを効果的に識別し、対処できることが示されている。
論文 参考訳(メタデータ) (2023-12-06T13:56:45Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Faithful Knowledge Distillation [75.59907631395849]
i) 教師と学生は、正しく分類されたデータセットのサンプルに近い点で意見が一致しないか、(ii) 蒸留した学生は、データセットのサンプルに関する教師と同じくらい自信があるか、という2つの重要な質問に焦点をあてる。
これらは、安全クリティカルな設定の中で、堅牢な教師から訓練された小さな学生ネットワークを配置することを考えると、重要な問題である。
論文 参考訳(メタデータ) (2023-06-07T13:41:55Z) - FedGT: Identification of Malicious Clients in Federated Learning with Secure Aggregation [69.75513501757628]
FedGTは、フェデレーション学習における悪意のあるクライアントを安全なアグリゲーションで識別するための新しいフレームワークである。
我々はPillutlaらによって最近提案された幾何的中央値に基づいて,FedGTがプライベートロバストアグリゲーションアプローチを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - Federated Uncertainty-Aware Aggregation for Fundus Diabetic Retinopathy
Staging [42.883182872565044]
本稿では,糖尿病網膜症(DR)ステージリングモデルのトレーニングのための新しいフェデレート不確実性認識集約パラダイム(FedUAA)を提案する。
FedUAAは各クライアントの信頼性を考慮し、DRステージングに対する信頼度を推定する。
実験の結果,FedUAAは,他のフェデレート学習法と比較して,信頼性の高いDRステージング性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-03-23T04:41:44Z) - Bayesian autoencoders with uncertainty quantification: Towards
trustworthy anomaly detection [78.24964622317634]
本研究では, ベイズオートエンコーダ (BAEs) の定式化により, 全体の異常不確かさを定量化する。
不確実性の質を評価するために,不確実性の予測を拒否するオプションを追加して,異常を分類する作業を検討する。
本実験は,BAEと総異常不確かさが,ベンチマークデータセットと製造用実データセットのセットに与える影響を実証するものである。
論文 参考訳(メタデータ) (2022-02-25T12:20:04Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Quality Inference in Federated Learning with Secure Aggregation [0.7614628596146599]
安全なアグリゲーションを適用した場合でも,品質情報を推測し,特定の参加者に関連付けることができることを示す。
本研究では,誤動作の検出,トレーニング性能の安定化,参加者の個人的貢献度の測定に,推定品質情報を適用した。
論文 参考訳(メタデータ) (2020-07-13T08:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。