論文の概要: CADRE: Customizable Assurance of Data Readiness in Privacy-Preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2505.23849v1
- Date: Wed, 28 May 2025 21:24:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.567683
- Title: CADRE: Customizable Assurance of Data Readiness in Privacy-Preserving Federated Learning
- Title(参考訳): CADRE:プライバシ保護フェデレーション学習におけるデータ準備のカスタマイズ可能な保証
- Authors: Kaveen Hiniduma, Zilinghan Li, Aditya Sinha, Ravi Madduri, Suren Byna,
- Abstract要約: FL用のCADRE(Customizable Assurance of Data Readiness)は、ユーザがカスタムデータ準備標準を定義することを可能にする新しいフレームワークである。
既存のPPFLフレームワークに統合することで、フレームワークの実践的応用を実証する。
- 参考スコア(独自算出の注目度): 2.9208761770445157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy-Preserving Federated Learning (PPFL) is a decentralized machine learning approach where multiple clients train a model collaboratively. PPFL preserves privacy and security of the client's data by not exchanging it. However, ensuring that data at each client is of high quality and ready for federated learning (FL) is a challenge due to restricted data access. In this paper, we introduce CADRE (Customizable Assurance of Data REadiness) for FL, a novel framework that allows users to define custom data readiness (DR) standards, metrics, rules, and remedies tailored to specific FL tasks. Our framework generates comprehensive DR reports based on the user-defined metrics, rules, and remedies to ensure datasets are optimally prepared for FL while preserving privacy. We demonstrate the framework's practical application by integrating it into an existing PPFL framework. We conducted experiments across six diverse datasets, addressing seven different DR issues. The results illustrate the framework's versatility and effectiveness in ensuring DR across various dimensions, including data quality, privacy, and fairness. This approach enhances the performance and reliability of FL models as well as utilizes valuable resources by identifying and addressing data-related issues before the training phase.
- Abstract(参考訳): プライバシ保護フェデレーションラーニング(PPFL)は、複数のクライアントが協力してモデルをトレーニングする分散機械学習アプローチである。
PPFLは、クライアントデータのプライバシとセキュリティを交換せずに保持する。
しかしながら、各クライアントのデータが高品質で、フェデレートドラーニング(FL)の準備が整っていることを保証することは、データアクセスが制限されていることによる課題である。
本稿では,FLにおけるCADRE(Customizable Assurance of Data Readiness)について紹介する。これは,ユーザが特定のFLタスクに適したカスタムデータ準備(DR)標準,メトリクス,ルール,修正を定義可能な,新しいフレームワークである。
われわれのフレームワークは、ユーザ定義のメトリクス、ルール、修正に基づいて包括的なDRレポートを生成し、プライバシーを維持しながらデータセットがFLに対して最適に準備されていることを保証する。
既存のPPFLフレームワークに統合することで、フレームワークの実践的応用を実証する。
我々は6つの多様なデータセットで実験を行い、7つのDR問題に対処した。
この結果は、データ品質、プライバシ、公正性など、さまざまな側面にわたるDRを保証するためのフレームワークの汎用性と有効性を示している。
このアプローチは、FLモデルの性能と信頼性を高め、トレーニングフェーズの前にデータ関連の問題を特定し、対処することで、貴重なリソースを利用する。
関連論文リスト
- An Interactive Framework for Implementing Privacy-Preserving Federated Learning: Experiments on Large Language Models [7.539653242367701]
フェデレートラーニング(FL)は、ユーザのデータをローカルデバイスに保存することで、プライバシを高める。
最近の攻撃は、トレーニング中にユーザーが共有したアップデートが、データに関する重要な情報を明らかにすることを実証している。
プライバシ実践者としての人間エンティティを統合し,モデルのプライバシとユーティリティの最適なトレードオフを決定するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-11T23:07:14Z) - Privacy-Enhancing Collaborative Information Sharing through Federated
Learning -- A Case of the Insurance Industry [1.8092553911119764]
このレポートは、複数の保険業界データセットにまたがる単一のモデルを学ぶために、フェデレートラーニング(FL)の価値を活用する利点を実証している。
FLは、プライバシの懸念によって引き起こされる、データボリュームの制限とデータの多様性の2つに対処する。
FLの各ラウンドにおいて、コラボレータはローカルなプライベートデータを使用してモデルの改善を計算し、これらの洞察を組み合わせてグローバルなモデルを更新する。
論文 参考訳(メタデータ) (2024-02-22T21:46:24Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Privacy Preserving Bayesian Federated Learning in Heterogeneous Settings [20.33482170846688]
本稿では,大規模なローカルデータセットがなくても,カスタマイズされたローカルベイズモデルに基づく統合学習フレームワークを提案する。
ネットワークの機能的(アウトプット)空間における事前情報を用いて、異種クライアント間のコラボレーションを容易にする。
標準FLデータセットを用いた実験により、同種および異種両方の設定において、我々のアプローチが強いベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-13T17:55:30Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Towards Building the Federated GPT: Federated Instruction Tuning [66.7900343035733]
本稿では,大規模言語モデル(LLM)の命令チューニングのための学習フレームワークとして,FedIT(Federated Instruction Tuning)を紹介する。
我々は,FedITを用いてクライアントの終端における多種多様な命令セットを活用することにより,ローカル命令のみを限定した集中学習に比べ,LLMの性能を向上させることを実証した。
論文 参考訳(メタデータ) (2023-05-09T17:42:34Z) - Personalized Privacy-Preserving Framework for Cross-Silo Federated
Learning [0.0]
Federated Learning(FL)は有望な分散ディープラーニング(DL)フレームワークであり、プライベートデータを共有することなく、クライアント間で共同でトレーニングされたDLベースのアプローチを可能にする。
本稿では,PPPFL(Personalized Privacy-Preserving Federated Learning)という新しいフレームワークを提案する。
提案するフレームワークは,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100など,さまざまなデータセット上で複数のFLベースラインより優れている。
論文 参考訳(メタデータ) (2023-02-22T07:24:08Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。