論文の概要: Towards Trustworthy Federated Learning
- arxiv url: http://arxiv.org/abs/2503.03684v1
- Date: Wed, 05 Mar 2025 17:25:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:21.655769
- Title: Towards Trustworthy Federated Learning
- Title(参考訳): 信頼できるフェデレーションラーニングを目指して
- Authors: Alina Basharat, Yijun Bian, Ping Xu, Zhi Tian,
- Abstract要約: 本稿では,フェデレートラーニング(FL)における3つの重要な課題に対処するための包括的枠組みを開発する。
ビザンチン攻撃に対するシステムの防御を改善するため,両面のノーム・ベース・スクリーニング機構を開発した。
また、ローカルクライアントの生データが好奇心をそそる関係者によって推測されるのを防ぐために、差分プライバシーベースのスキームも採用しています。
- 参考スコア(独自算出の注目度): 26.25193909843069
- License:
- Abstract: This paper develops a comprehensive framework to address three critical trustworthy challenges in federated learning (FL): robustness against Byzantine attacks, fairness, and privacy preservation. To improve the system's defense against Byzantine attacks that send malicious information to bias the system's performance, we develop a Two-sided Norm Based Screening (TNBS) mechanism, which allows the central server to crop the gradients that have the l lowest norms and h highest norms. TNBS functions as a screening tool to filter out potential malicious participants whose gradients are far from the honest ones. To promote egalitarian fairness, we adopt the q-fair federated learning (q-FFL). Furthermore, we adopt a differential privacy-based scheme to prevent raw data at local clients from being inferred by curious parties. Convergence guarantees are provided for the proposed framework under different scenarios. Experimental results on real datasets demonstrate that the proposed framework effectively improves robustness and fairness while managing the trade-off between privacy and accuracy. This work appears to be the first study that experimentally and theoretically addresses fairness, privacy, and robustness in trustworthy FL.
- Abstract(参考訳): 本稿では,ビザンツの攻撃に対する堅牢性,公正性,プライバシー保護という,連邦学習(FL)における3つの重要な課題に対処するための包括的枠組みを開発する。
システムの性能を偏らせるために悪意のある情報を送信するビザンツ攻撃に対するシステムの防御を改善するため,本システムでは,L最低基準とh最高基準を有する勾配を抽出する2面ノルムスクリーニング(TNBS)機構を開発した。
TNBSはスクリーニングツールとして機能し、直感とは程遠い悪質な参加者をフィルタリングする。
平等主義的公正性を促進するため、我々はq-fair Federated Learning (q-FFL)を採用した。
さらに、ローカルクライアントの生データを好奇心をそそる関係者が推測することを防止するために、差分プライバシーベースのスキームを採用する。
異なるシナリオ下で提案されたフレームワークに収束保証が提供される。
実際のデータセットに対する実験結果から,提案フレームワークは,プライバシと精度のトレードオフを管理しつつ,堅牢性と公正性を効果的に向上することを示した。
この研究は、信頼性のあるFLの公平性、プライバシー、堅牢性について実験的に理論的に研究した最初の研究である。
関連論文リスト
- TPFL: A Trustworthy Personalized Federated Learning Framework via Subjective Logic [13.079535924498977]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
ほとんどのFLアプローチは、プライバシ保護に重点を置いているが、信頼性が不可欠であるシナリオでは不足している。
主観的論理を用いた分類タスク用に設計された信頼に足る個人化フェデレーション学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-10-16T07:33:29Z) - PUFFLE: Balancing Privacy, Utility, and Fairness in Federated Learning [2.8304839563562436]
公平さとプライバシの原則を同時に遵守するマシンラーニングモデルのトレーニングとデプロイは、大きな課題となる。
本稿では,FLシナリオにおける実用性,プライバシ,公正性のバランスを探究する上で有効な,高レベルのパラメータ化アプローチであるPUFFLEを紹介する。
PUFFLEは多様なデータセット,モデル,データ分布に対して有効であり,モデルの不公平性を75%まで低減し,最悪のシナリオでは有効性を最大17%削減できることを示す。
論文 参考訳(メタデータ) (2024-07-21T17:22:18Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [28.58589747796768]
Federated Learning(FL)は、データサイロの課題に対処するために設計された、新興の機械学習パラダイムである。
公平性とデータプライバシに関する永続的な問題に対処するため,FedFairというフェアネスを考慮したFLアルゴリズムを提案する。
FedFairをベースとした差分プライバシーを導入し、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するFedFDPアルゴリズムを作成します。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Byzantine-Robust Federated Learning with Variance Reduction and
Differential Privacy [6.343100139647636]
フェデレートラーニング(FL)は、モデルトレーニング中にデータのプライバシを保存するように設計されている。
FLはプライバシー攻撃やビザンツ攻撃に弱い。
本稿では,厳格なプライバシを保証するとともに,ビザンチン攻撃に対するシステムの堅牢性を同時に向上する新しいFLスキームを提案する。
論文 参考訳(メタデータ) (2023-09-07T01:39:02Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Federated Neural Collaborative Filtering [0.0]
我々は、アイテムレコメンデーションのための最先端のニューラルコラボレーティブ・フィルタリング(NCF)アプローチのフェデレーション版を提案する。
FedNCFと名付けられたこのシステムは、ユーザが生データを公開したり送信したりすることなく、学習ができる。
FLの協調フィルタリング(CF)タスクにおける特殊性について検討するとともに,計算コストの観点からプライバシ保護機構の評価を行った。
論文 参考訳(メタデータ) (2021-06-02T21:05:41Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。