論文の概要: Stratified cross-validation for unbiased and privacy-preserving
federated learning
- arxiv url: http://arxiv.org/abs/2001.08090v2
- Date: Thu, 23 Jan 2020 08:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:23:18.543343
- Title: Stratified cross-validation for unbiased and privacy-preserving
federated learning
- Title(参考訳): 無バイアス・プライバシ保護型フェデレーション学習のための階層的クロスバリデーション
- Authors: R. Bey, R. Goussault, M. Benchoufi, R. Porcher
- Abstract要約: 本稿では、重複レコードの繰り返し問題に焦点をあて、もし適切に扱わなければ、モデルの性能を過度に最適化的に見積もる可能性がある。
本稿では,階層化手法を活用して,フェデレート学習環境におけるデータ漏洩を防止する検証手法である階層化クロスバリデーションを紹介し,議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale collections of electronic records constitute both an opportunity
for the development of more accurate prediction models and a threat for
privacy. To limit privacy exposure new privacy-enhancing techniques are
emerging such as federated learning which enables large-scale data analysis
while avoiding the centralization of records in a unique database that would
represent a critical point of failure. Although promising regarding privacy
protection, federated learning prevents using some data-cleaning algorithms
thus inducing new biases. In this work we focus on the recurrent problem of
duplicated records that, if not handled properly, may cause over-optimistic
estimations of a model's performances. We introduce and discuss stratified
cross-validation, a validation methodology that leverages stratification
techniques to prevent data leakage in federated learning settings without
relying on demanding deduplication algorithms.
- Abstract(参考訳): 電子記録の大規模コレクションは、より正確な予測モデルを開発する機会とプライバシに対する脅威の両方を構成する。
プライバシの露出を制限するために、フェデレーション・ラーニング(federated learning)のような新しいプライバシー向上技術が登場し、大規模なデータ分析を可能にしながら、重要な障害点を表すユニークなデータベースにおけるレコードの集中化を回避する。
プライバシー保護に関して有望だが、フェデレーション学習はいくつかのデータクリーニングアルゴリズムを使用することを防ぎ、新しいバイアスを引き起こす。
本研究は, 重複レコードの繰り返し問題に着目し, 適切に扱わない場合, モデルの性能を過度に最適化的に推定する。
本研究では,階層化手法を活用した検証手法であるstratified cross-validation(階層化クロスバリデーション)を紹介し,検討する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - A Two-Stage Federated Learning Approach for Industrial Prognostics Using Large-Scale High-Dimensional Signals [1.2277343096128712]
産業統計学は、アセットからの高次元劣化信号を利用して、その故障時間を予測するデータ駆動手法を開発することを目的としている。
実際には、個々の組織は信頼できる予測モデルを独立して訓練するのに十分なデータを持っていないことが多い。
本稿では,複数の組織が共同で予後モデルを訓練できる統計的学習に基づくフェデレーションモデルを提案する。
論文 参考訳(メタデータ) (2024-10-14T21:26:22Z) - Fin-Fed-OD: Federated Outlier Detection on Financial Tabular Data [11.027356898413139]
実世界のシナリオにおける異常検出は、動的でしばしば未知の異常分布による課題を引き起こす。
本稿では、データの機密性を損なうことなく、個々の組織における異常検出を強化するという課題に対処する。
本稿では,表現学習とフェデレーション学習技術を利用して未知の異常の検出を改善する手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:22:04Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting [0.0]
異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
論文 参考訳(メタデータ) (2020-04-20T20:21:04Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。