論文の概要: FederatedTrust: A Solution for Trustworthy Federated Learning
- arxiv url: http://arxiv.org/abs/2302.09844v2
- Date: Thu, 6 Jul 2023 11:35:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 18:02:40.881469
- Title: FederatedTrust: A Solution for Trustworthy Federated Learning
- Title(参考訳): FederatedTrust: 信頼できるフェデレーション学習のためのソリューション
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an, Ning Xie,
G\'er\^ome Bovet, Gregorio Mart\'inez P\'erez, Burkhard Stiller
- Abstract要約: IoT(Internet of Things)の急速な拡張により、中央集権型機械学習(ML/DL)メソッドの課題が提示された。
データプライバシに関する懸念に対処するため、フェデレートラーニング(FL)のような、協調的でプライバシ保護のML/DL技術が登場した。
- 参考スコア(独自算出の注目度): 3.202927443898192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid expansion of the Internet of Things (IoT) and Edge Computing has
presented challenges for centralized Machine and Deep Learning (ML/DL) methods
due to the presence of distributed data silos that hold sensitive information.
To address concerns regarding data privacy, collaborative and
privacy-preserving ML/DL techniques like Federated Learning (FL) have emerged.
However, ensuring data privacy and performance alone is insufficient since
there is a growing need to establish trust in model predictions. Existing
literature has proposed various approaches on trustworthy ML/DL (excluding data
privacy), identifying robustness, fairness, explainability, and accountability
as important pillars. Nevertheless, further research is required to identify
trustworthiness pillars and evaluation metrics specifically relevant to FL
models, as well as to develop solutions that can compute the trustworthiness
level of FL models. This work examines the existing requirements for evaluating
trustworthiness in FL and introduces a comprehensive taxonomy consisting of six
pillars (privacy, robustness, fairness, explainability, accountability, and
federation), along with over 30 metrics for computing the trustworthiness of FL
models. Subsequently, an algorithm named FederatedTrust is designed based on
the pillars and metrics identified in the taxonomy to compute the
trustworthiness score of FL models. A prototype of FederatedTrust is
implemented and integrated into the learning process of FederatedScope, a
well-established FL framework. Finally, five experiments are conducted using
different configurations of FederatedScope to demonstrate the utility of
FederatedTrust in computing the trustworthiness of FL models. Three experiments
employ the FEMNIST dataset, and two utilize the N-BaIoT dataset considering a
real-world IoT security use case.
- Abstract(参考訳): IoT(Internet of Things)とエッジコンピューティングの急速な拡張により、センシティブな情報を保持する分散データサイロの存在により、集中型機械学習(ML/DL)手法の課題が提示された。
データプライバシに関する懸念に対処するため、フェデレートラーニング(FL)のようなML/DL技術が登場している。
しかし、モデル予測に対する信頼を確立する必要性が高まっているため、データのプライバシとパフォーマンスの確保だけでは不十分である。
既存の文献では、信頼できるML/DL(データプライバシを除く)に対して、堅牢性、公正性、説明可能性、説明責任を重要な柱として特定する様々なアプローチが提案されている。
それでも、FLモデルに関連する信頼性柱と評価指標を同定し、FLモデルの信頼性レベルを計算できるソリューションを開発するためには、さらなる研究が必要である。
本研究は、flの信頼性を評価するための既存の要件を検証し、6つの柱(プライバシー、ロバスト性、公平性、説明可能性、説明責任、連邦)と、flモデルの信頼性を計算するための30以上の指標からなる包括的分類法を導入する。
その後、FederatedTrustというアルゴリズムが分類学で同定された柱とメトリクスに基づいて設計され、FLモデルの信頼性スコアが計算される。
FederatedTrustのプロトタイプが実装され、十分に確立されたFLフレームワークであるFederatedScopeの学習プロセスに統合される。
最後に,federatedscopeの異なる構成を用いて5つの実験を行い,flモデルの信頼性計算におけるfederatedtrustの有用性を実証した。
3つの実験では、FEMNISTデータセットを使用し、2つは、実際のIoTセキュリティユースケースを考慮したN-Ba IoTデータセットを使用する。
関連論文リスト
- TPFL: A Trustworthy Personalized Federated Learning Framework via Subjective Logic [13.079535924498977]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
ほとんどのFLアプローチは、プライバシ保護に重点を置いているが、信頼性が不可欠であるシナリオでは不足している。
主観的論理を用いた分類タスク用に設計された信頼に足る個人化フェデレーション学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-10-16T07:33:29Z) - Enabling Trustworthy Federated Learning in Industrial IoT: Bridging the Gap Between Interpretability and Robustness [4.200214709723945]
Federated Learning(FL)は機械学習のパラダイムシフトであり、データのローカライズを維持しながら協調的なモデルトレーニングを可能にする。
IIoTにおけるFLの本質は、中央データストレージを必要とせずに、多様な分散データソースから学習できることにある。
この記事では、解釈可能性と堅牢性の間のギャップを埋めることで、IIoTで信頼できるFLを実現することに焦点を当てます。
論文 参考訳(メタデータ) (2024-09-01T15:13:39Z) - Accuracy-Privacy Trade-off in the Mitigation of Membership Inference Attack in Federated Learning [4.152322723065285]
フェデレーション・ラーニング(FL)は、機械学習において顕著な方法として現れ、複数のクライアントがトレーニングデータをプライベートに保ちながら、協力してモデルを構築することを可能にすることで、プライバシ保護を強調している。
プライバシに重点を置いているにもかかわらず、FLモデルは、メンバーシップ推論攻撃(MIA)など、様々な攻撃を受けやすい。
論文 参考訳(メタデータ) (2024-07-26T22:44:41Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Trustworthy Federated Learning: A Survey [0.5089078998562185]
人工知能(AI)分野において、フェデレートラーニング(FL)が大きな進歩を遂げている。
我々は、Trustworthy FLの現状を概観し、既存のソリューションとTrustworthyに関連する明確に定義された柱を探求する。
本稿では,解釈可能性,公正性,セキュリティとプライバシの3つの柱を含む分類法を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:11:26Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Data Valuation for Vertical Federated Learning: A Model-free and
Privacy-preserving Method [14.451118953357605]
FedValueは、VFL(Vertical Federated Learning)のためのプライバシ保護、タスク固有、モデルフリーなデータ評価手法である。
まず,機械学習モデルを実行する必要なく,予測分析タスクへのデータパーティの貢献を評価する。
次に、プライバシ保存方式で各データパーティのMShapley-CMI値を算出する革新的なフェデレーション手法を開発する。
論文 参考訳(メタデータ) (2021-12-15T02:42:28Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。