論文の概要: Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning
- arxiv url: http://arxiv.org/abs/2101.05504v1
- Date: Thu, 14 Jan 2021 08:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 07:12:26.214241
- Title: Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning
- Title(参考訳): プライバシ保存型多人数機械学習における重み付けによる信頼性チェック
- Authors: Kennedy Edemacu, Beakcheol Jang, Jong Wook Kim
- Abstract要約: 我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
- 参考スコア(独自算出の注目度): 7.552100672006174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-party machine learning is a paradigm in which multiple participants
collaboratively train a machine learning model to achieve a common learning
objective without sharing their privately owned data. The paradigm has recently
received a lot of attention from the research community aimed at addressing its
associated privacy concerns. In this work, we focus on addressing the concerns
of data privacy, model privacy, and data quality associated with
privacy-preserving multi-party machine learning, i.e., we present a scheme for
privacy-preserving collaborative learning that checks the participants' data
quality while guaranteeing data and model privacy. In particular, we propose a
novel metric called weight similarity that is securely computed and used to
check whether a participant can be categorized as a reliable participant (holds
good quality data) or not. The problems of model and data privacy are tackled
by integrating homomorphic encryption in our scheme and uploading encrypted
weights, which prevent leakages to the server and malicious participants,
respectively. The analytical and experimental evaluations of our scheme
demonstrate that it is accurate and ensures data and model privacy.
- Abstract(参考訳): マルチパーティ機械学習は、複数の参加者が共同で機械学習モデルをトレーニングし、プライベートなデータを共有することなく共通の学習目標を達成するパラダイムである。
このパラダイムは最近、関連するプライバシー問題に対処するための研究コミュニティから多くの注目を集めている。
本研究は,データプライバシ,モデルプライバシ,およびプライバシ保存マルチパーティ機械学習に関連するデータ品質の懸念,すなわち,データとモデルプライバシを保証しながら参加者のデータ品質をチェックするために,プライバシ保存協調学習のためのスキームを提案する。
特に,重み類似性(weight similarity)と呼ばれる新しい指標を提案し,参加者が信頼できる参加者(良質なデータを保持する)として分類できるかどうかを確認する。
モデルとデータのプライバシの問題は、我々のスキームに準同型暗号化を統合し、暗号化された重みをアップロードすることで解決されます。
提案手法の分析および実験により,精度が向上し,データとモデルのプライバシが保証された。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Federated Learning Method for Preserving Privacy in Face Recognition
System [0.0]
我々は,教師付き・教師なしの顔認識システムにおいて,セキュアなアグリゲータと非セキュアなアグリゲータを併用したフェデレート学習の適用について検討する。
提案システムでは,各エッジデバイスは独立して,セキュアなアグリゲータあるいは中央サーバに直接送信される独自のモデルを訓練する。
論文 参考訳(メタデータ) (2024-03-08T14:21:43Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。