論文の概要: Federated Extra-Trees with Privacy Preserving
- arxiv url: http://arxiv.org/abs/2002.07323v1
- Date: Tue, 18 Feb 2020 01:15:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 19:43:24.163097
- Title: Federated Extra-Trees with Privacy Preserving
- Title(参考訳): プライバシ保護を備えたフェデレーションエクストラツリー
- Authors: Yang Liu, Mingxin Chen, Wenxi Zhang, Junbo Zhang, Yu Zheng
- Abstract要約: 本稿では,フェデレート・エクストラトレーズ(Federated Extra-Trees)という,新たなプライバシ保護機械学習モデルを提案する。
優れた性能を実現するために,セキュアな多施設機械学習システムを開発した。
- 参考スコア(独自算出の注目度): 20.564530457026976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is commonly observed that the data are scattered everywhere and difficult
to be centralized. The data privacy and security also become a sensitive topic.
The laws and regulations such as the European Union's General Data Protection
Regulation (GDPR) are designed to protect the public's data privacy. However,
machine learning requires a large amount of data for better performance, and
the current circumstances put deploying real-life AI applications in an
extremely difficult situation. To tackle these challenges, in this paper we
propose a novel privacy-preserving federated machine learning model, named
Federated Extra-Trees, which applies local differential privacy in the
federated trees model. A secure multi-institutional machine learning system was
developed to provide superior performance by processing the modeling jointly on
different clients without exchanging any raw data. We have validated the
accuracy of our work by conducting extensive experiments on public datasets and
the efficiency and robustness were also verified by simulating the real-world
scenarios. Overall, we presented an extensible, scalable and practical solution
to handle the data island problem.
- Abstract(参考訳): データは至るところに分散しており、集中化が難しいことがよく見られる。
データプライバシとセキュリティも、センシティブなトピックになります。
欧州連合の一般データ保護規則(GDPR)のような法律や規則は、市民のデータプライバシーを保護するように設計されている。
しかし、機械学習はパフォーマンス向上のために大量のデータを必要とし、現在の状況では、現実のAIアプリケーションを極めて困難な状況にデプロイする。
本稿では,これらの課題に対処するために,フェデレーション木モデルにおいて局所微分プライバシーを適用する,新たなプライバシー保存型フェデレーション機械学習モデルであるフェデレーション外木を提案する。
生データを交換することなく、異なるクライアント上でモデリングを共同処理することで、安全なマルチ機関機械学習システムを開発した。
我々は,公開データセットに関する広範囲な実験を行い,実世界のシナリオをシミュレートし,その効率と堅牢性を検証した。
全体として、データアイランド問題を扱うための拡張可能でスケーラブルで実用的なソリューションを提示しました。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Data Collaboration Analysis Over Matrix Manifolds [0.0]
プライバシー保護機械学習(PPML)は、機密情報の保護によってこの問題に対処する。
NRI-DCフレームワークは革新的なアプローチとして登場し、機関間の「データアイランド」問題を解消する可能性がある。
本研究は,これらの協調関数の厳密な理論的基礎を確立し,新しい定式化を導入する。
論文 参考訳(メタデータ) (2024-03-05T08:52:16Z) - Privacy-Enhancing Collaborative Information Sharing through Federated
Learning -- A Case of the Insurance Industry [1.8092553911119764]
このレポートは、複数の保険業界データセットにまたがる単一のモデルを学ぶために、フェデレートラーニング(FL)の価値を活用する利点を実証している。
FLは、プライバシの懸念によって引き起こされる、データボリュームの制限とデータの多様性の2つに対処する。
FLの各ラウンドにおいて、コラボレータはローカルなプライベートデータを使用してモデルの改善を計算し、これらの洞察を組み合わせてグローバルなモデルを更新する。
論文 参考訳(メタデータ) (2024-02-22T21:46:24Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - DBFed: Debiasing Federated Learning Framework based on
Domain-Independent [15.639705798326213]
本稿では,ドメイン非依存に基づくデバイアス学習フレームワークを提案する。これは,クライアント側トレーニング中に機密属性を明示的に符号化することで,モデルバイアスを緩和する。
本稿では,3つの実データセットについて実験を行い,精度と公平性の5つの評価指標を用いてモデルの効果を定量的に評価する。
論文 参考訳(メタデータ) (2023-07-10T14:39:57Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。