論文の概要: Efficient Logistic Regression with Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2202.02650v1
- Date: Sat, 5 Feb 2022 22:44:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:39:38.057994
- Title: Efficient Logistic Regression with Local Differential Privacy
- Title(参考訳): 局所微分プライバシーを用いた効率的なロジスティック回帰
- Authors: Guanhong Miao
- Abstract要約: モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet of Things devices are expanding rapidly and generating huge amount
of data. There is an increasing need to explore data collected from these
devices. Collaborative learning provides a strategic solution for the Internet
of Things settings but also raises public concern over data privacy. In recent
years, large amount of privacy preserving techniques have been developed based
on differential privacy and secure multi-party computation. A major challenge
of collaborative learning is to balance disclosure risk and data utility while
maintaining high computation efficiency. In this paper, we proposed privacy
preserving logistic regression model using matrix encryption approach. The
secure scheme achieves local differential privacy and can be implemented for
both vertical and horizontal partitioning scenarios. Moreover, cross validation
is investigated to generate robust model results without increasing the
communication cost. Simulation illustrates the high efficiency of proposed
scheme to analyze dataset with millions of records. Experimental evaluations
further demonstrate high model accuracy while achieving privacy protection.
- Abstract(参考訳): モノのインターネットデバイスは急速に拡大し、膨大なデータを生み出している。
これらのデバイスから収集したデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
近年,ディファレンシャルプライバシとセキュアなマルチパーティ計算に基づいて,大量のプライバシ保護技術が開発されている。
協調学習の大きな課題は、高い計算効率を維持しながら、開示リスクとデータユーティリティのバランスをとることである。
本稿では,行列暗号を用いたプライバシ保存ロジスティック回帰モデルを提案する。
セキュアなスキームは、局所的な差分プライバシーを実現し、垂直および水平のパーティショニングシナリオに実装することができる。
さらに,通信コストを増大させることなく,ロバストなモデル結果を生成するためにクロスバリデーションを検討した。
シミュレーションは、数百万レコードのデータセットを解析するための提案スキームの高効率を示す。
実験により、プライバシー保護を達成しつつ高いモデル精度を示す。
関連論文リスト
- Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Towards Vertical Privacy-Preserving Symbolic Regression via Secure
Multiparty Computation [3.9103337761169947]
遺伝的プログラミングはシンボリック回帰の標準的な検索手法である。
プライバシー保護の研究は最近進歩し、この問題に対する解決策を提供するかもしれない。
本稿では,セキュア多人数計算と呼ばれるプライバシ保護技術を用いて,共謀回帰モデルの構築を可能にするアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-22T07:48:42Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Differentially-Private Data Synthetisation for Efficient Re-Identification Risk Control [3.8811062755861956]
$epsilon$-PrivateSMOTEは、再識別とリンケージ攻撃を防ぐためのテクニックである。
提案手法は,ノイズに起因した逆数による合成データ生成と,高リスクケースを難読化するための差分プライバシー原則を組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-01T13:20:37Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Linear Model with Local Differential Privacy [0.225596179391365]
プライバシ保護技術は、さまざまな機関間で分散データを解析するために広く研究されている。
セキュアなマルチパーティ計算は、プライバシ保護のために、高いプライバシレベルで、高コストで広く研究されている。
マトリクスマスキング技術は、悪意のある敵に対するセキュアなスキームを暗号化するために用いられる。
論文 参考訳(メタデータ) (2022-02-05T01:18:00Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。