論文の概要: Differentially Private M-band Wavelet-Based Mechanisms in Machine
Learning Environments
- arxiv url: http://arxiv.org/abs/2001.00012v2
- Date: Tue, 18 Feb 2020 20:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:23:20.031422
- Title: Differentially Private M-band Wavelet-Based Mechanisms in Machine
Learning Environments
- Title(参考訳): 機械学習環境における個人用Mバンドウェーブレット機構
- Authors: Kenneth Choi and Tony Lee
- Abstract要約: データにノイズを埋め込む離散Mバンドウェーブレット変換を用いた3つのプライバシ保護機構を開発する。
本機構は,機械学習環境における統計的解析により,差分プライバシーと学習可能性の両方を維持可能であることを示す。
- 参考スコア(独自算出の注目度): 4.629162607975834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the post-industrial world, data science and analytics have gained
paramount importance regarding digital data privacy. Improper methods of
establishing privacy for accessible datasets can compromise large amounts of
user data even if the adversary has a small amount of preliminary knowledge of
a user. Many researchers have been developing high-level privacy-preserving
mechanisms that also retain the statistical integrity of the data to apply to
machine learning. Recent developments of differential privacy, such as the
Laplace and Privelet mechanisms, drastically decrease the probability that an
adversary can distinguish the elements in a data set and thus extract user
information. In this paper, we develop three privacy-preserving mechanisms with
the discrete M-band wavelet transform that embed noise into data. The first two
methods (LS and LS+) add noise through a Laplace-Sigmoid distribution that
multiplies Laplace-distributed values with the sigmoid function, and the third
method utilizes pseudo-quantum steganography to embed noise into the data. We
then show that our mechanisms successfully retain both differential privacy and
learnability through statistical analysis in various machine learning
environments.
- Abstract(参考訳): 産業後の世界では、デジタルデータのプライバシに関して、データサイエンスとアナリティクスが重要視されている。
アクセス可能なデータセットのプライバシを確立する不適切な方法は、相手がユーザの予備知識を少量持っている場合でも、大量のユーザデータを侵害することができる。
多くの研究者が、機械学習に適用するためのデータの統計的整合性を維持する高いレベルのプライバシー保護メカニズムを開発してきた。
近年,Laplace や Privelet のメカニズムのような差分プライバシーの発達により,敵がデータセット内の要素を識別し,ユーザ情報を抽出する可能性が大幅に低下している。
本稿では,データにノイズを埋め込む離散Mバンドウェーブレット変換を用いた3つのプライバシー保護機構を開発する。
最初の2つの方法(LSとLS+)は、Laplace-Sigmoid分布を通してノイズを付加し、Laplace-Distributed値とSigmoid関数を乗算し、第3の方法は擬似量子ステガノグラフィーを用いてデータにノイズを埋め込む。
そこで我々は,機械学習環境における統計的解析により,差分プライバシーと学習可能性の両方を維持できることを実証した。
関連論文リスト
- Leveraging Internal Representations of Model for Magnetic Image
Classification [0.13654846342364302]
本稿では、1つの磁気画像とそれに対応するラベル画像しか持たないシナリオに特化して設計された機械学習モデルトレーニングのための、潜在的に画期的なパラダイムを提案する。
私たちはDeep Learningの能力を活用して、データの不足を克服することを目的として、簡潔で情報に富んだサンプルを生成します。
論文 参考訳(メタデータ) (2024-03-11T15:15:50Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - The Symmetric alpha-Stable Privacy Mechanism [0.0]
本稿では,Symmetric alpha-Stable (SaS) 機構の新しい解析法を提案する。
この機構は、畳み込みの下で閉じたまま、純粋に微分プライベートであることを示す。
論文 参考訳(メタデータ) (2023-11-29T16:34:39Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Summary Statistic Privacy in Data Sharing [23.50797952699759]
本研究では,データ配信の要約統計を明らかにすることなく,データ保持者が受信者とデータを共有したい状況について検討する。
このようなメカニズムのプライバシーリスクを定量化するための指標である統計プライバシーの要約を提案する。
提案した量子化メカニズムは、代替プライバシメカニズムよりも優れたプライバシー歪曲トレードオフを実現する。
論文 参考訳(メタデータ) (2023-03-03T15:29:19Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - FedHarmony: Unlearning Scanner Bias with Distributed Data [2.371982686172067]
FedHarmonyは、フェデレート学習パラダイムで動作する調和フレームワークである。
スキャナー固有の効果を除去するためには、学習した特徴の平均偏差と標準偏差を共有する必要がある。
論文 参考訳(メタデータ) (2022-05-31T17:19:47Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - P3GM: Private High-Dimensional Data Release via Privacy Preserving
Phased Generative Model [23.91327154831855]
本稿では,プライバシ保護型位相生成モデル(P3GM)を提案する。
P3GMは2段階の学習プロセスを採用し、ノイズに対して堅牢にし、学習効率を向上させる。
最先端の手法と比較して、生成したサンプルはノイズが少なく、データ多様性の観点からも元のデータに近いように見える。
論文 参考訳(メタデータ) (2020-06-22T09:47:54Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。