論文の概要: FederatedTrust: A Solution for Trustworthy Federated Learning
- arxiv url: http://arxiv.org/abs/2302.09844v1
- Date: Mon, 20 Feb 2023 09:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 16:11:09.786237
- Title: FederatedTrust: A Solution for Trustworthy Federated Learning
- Title(参考訳): FederatedTrust: 信頼できるフェデレーション学習のためのソリューション
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an, Ning Xie,
G\'er\^ome Bovet, Gregorio Mart\'inez P\'erez, Burkhard Stiller
- Abstract要約: 本研究は,フェデレートラーニング(FL)における信頼度評価の既存の要件を分析した。
FLモデルの信頼性を計算するための30以上の指標と概念を持つ6つの柱(民営性、堅牢性、公正性、説明可能性、説明可能性、説明可能性、連合)の包括的分類法を提案する。
FederatedTrustのプロトタイプが実装され、FederatedScopeの学習プロセスにデプロイされている。
- 参考スコア(独自算出の注目度): 3.202927443898192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the ever-widening spread of the Internet of Things (IoT) and Edge
Computing paradigms, centralized Machine and Deep Learning (ML/DL) have become
challenging due to existing distributed data silos containing sensitive
information. The rising concern for data privacy is promoting the development
of collaborative and privacy-preserving ML/DL techniques such as Federated
Learning (FL). FL enables data privacy by design since the local data of
participants are not exposed during the creation of the global and
collaborative model. However, data privacy and performance are no longer
sufficient, and there is a real necessity to trust model predictions. The
literature has proposed some works on trustworthy ML/DL (without data privacy),
where robustness, fairness, explainability, and accountability are identified
as relevant pillars. However, more efforts are needed to identify
trustworthiness pillars and evaluation metrics relevant to FL models and to
create solutions computing the trustworthiness level of FL models. Thus, this
work analyzes the existing requirements for trustworthiness evaluation in FL
and proposes a comprehensive taxonomy of six pillars (privacy, robustness,
fairness, explainability, accountability, and federation) with notions and more
than 30 metrics for computing the trustworthiness of FL models. Then, an
algorithm called FederatedTrust has been designed according to the pillars and
metrics identified in the previous taxonomy to compute the trustworthiness
score of FL models. A prototype of FederatedTrust has been implemented and
deployed into the learning process of FederatedScope, a well-known FL
framework. Finally, four experiments performed with different configurations of
FederatedScope using the FEMNIST dataset under different federation
configurations demonstrated the usefulness of FederatedTrust when computing the
trustworthiness of FL models.
- Abstract(参考訳): IoT(Internet of Things)とエッジコンピューティング(Edge Computing)のパラダイムが広く普及するにつれ、センシティブな情報を含む既存の分散データサイロによって、集中型機械学習(ML/DL)は困難になってきた。
データプライバシに対する関心が高まっているのは、フェデレートラーニング(FL)のような、協調的でプライバシ保護のML/DL技術の開発を促進することだ。
FLは、グローバルでコラボレーティブなモデルの作成中に参加者のローカルデータが公開されないため、設計によるデータプライバシを実現する。
しかし、データプライバシとパフォーマンスはもはや不十分であり、モデル予測を信頼する必要がある。
文献は、信頼性の高いML/DL(データプライバシなし)に関するいくつかの研究を提案しており、堅牢性、公正性、説明可能性、説明責任が関連する柱として特定されている。
しかし、FLモデルに関連する信頼性柱と評価指標を特定し、FLモデルの信頼性レベルを計算するソリューションを作成するためには、さらなる努力が必要である。
そこで本研究では,flにおける信頼性評価の既存要件を分析し,信頼度計算のための概念と30以上の指標を含む6つの柱(プライバシー,ロバスト性,公平性,説明可能性,説明責任,連合)の包括的分類法を提案する。
そして、FLモデルの信頼性スコアを計算するために、以前の分類法で同定された柱と指標に基づいてFederatedTrustと呼ばれるアルゴリズムを設計した。
FederatedTrustのプロトタイプが実装され、よく知られたFLフレームワークであるFederatedScopeの学習プロセスにデプロイされた。
最後に,femnistデータセットを用いたフェデレーションスコープの異なる構成を用いた4つの実験により,flモデルの信頼性計算におけるフェデレーション信頼の有用性が示された。
関連論文リスト
- Federated Learning for Clinical Structured Data: A Benchmark Comparison
of Engineering and Statistical Approaches [37.192249479129444]
フェデレートラーニング(FL)は、医療コラボレーションにおけるデータのプライバシ保護の有望な可能性を示している。
FL」という言葉は元々エンジニアリングコミュニティによって造られたものであるが、統計分野も同様のプライバシー保護アルゴリズムを探求している。
本稿では工学と統計の両分野からFLフレームワークを総合的に比較する。
論文 参考訳(メタデータ) (2023-11-06T10:11:59Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and
Non-smooth Problems with Model Sparsification [54.767648945613004]
フェデレートラーニング(FL)は急速に成長している分野として認識されている。
パラメータの非平滑性と非共有性は、FLアプリケーションで一般的である。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Trustworthy Federated Learning: A Survey [0.5089078998562185]
人工知能(AI)分野において、フェデレートラーニング(FL)が大きな進歩を遂げている。
我々は、Trustworthy FLの現状を概観し、既存のソリューションとTrustworthyに関連する明確に定義された柱を探求する。
本稿では,解釈可能性,公正性,セキュリティとプライバシの3つの柱を含む分類法を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:11:26Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Data Valuation for Vertical Federated Learning: A Model-free and
Privacy-preserving Method [14.451118953357605]
FedValueは、VFL(Vertical Federated Learning)のためのプライバシ保護、タスク固有、モデルフリーなデータ評価手法である。
まず,機械学習モデルを実行する必要なく,予測分析タスクへのデータパーティの貢献を評価する。
次に、プライバシ保存方式で各データパーティのMShapley-CMI値を算出する革新的なフェデレーション手法を開発する。
論文 参考訳(メタデータ) (2021-12-15T02:42:28Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Prototype Guided Federated Learning of Visual Feature Representations [15.021124010665194]
Federated Learning(FL)は、分散モデルトレーニングを可能にするフレームワークである。
既存の手法は、内部表現を無視したモデルを集約する。
我々は、分散データ上で学習した表現のマージンを用いてクライアントの偏差を計算するFedProtoを紹介する。
論文 参考訳(メタデータ) (2021-05-19T08:29:12Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。