論文の概要: Privacy-Preserving Wavelet Wavelet Neural Network with Fully Homomorphic
Encryption
- arxiv url: http://arxiv.org/abs/2205.13265v1
- Date: Thu, 26 May 2022 10:40:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:23:44.363115
- Title: Privacy-Preserving Wavelet Wavelet Neural Network with Fully Homomorphic
Encryption
- Title(参考訳): 完全準同型暗号を用いたプライバシ保存ウェーブレットウェーブレットニューラルネットワーク
- Authors: Syed Imtiaz Ahamed and Vadlamani Ravi
- Abstract要約: プライバシ保護機械学習(PPML)は、プライバシ保護と、マシンラーニングモデルの構築に使用されるデータに対するセキュリティの提供を目的としている。
プライバシを保護すると同時に,モデルの効率を損なわないよう,完全同型暗号化ウェーブレットニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 5.010425616264462
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The main aim of Privacy-Preserving Machine Learning (PPML) is to protect the
privacy and provide security to the data used in building Machine Learning
models. There are various techniques in PPML such as Secure Multi-Party
Computation, Differential Privacy, and Homomorphic Encryption (HE). The
techniques are combined with various Machine Learning models and even Deep
Learning Networks to protect the data privacy as well as the identity of the
user. In this paper, we propose a fully homomorphic encrypted wavelet neural
network to protect privacy and at the same time not compromise on the
efficiency of the model. We tested the effectiveness of the proposed method on
seven datasets taken from the finance and healthcare domains. The results show
that our proposed model performs similarly to the unencrypted model.
- Abstract(参考訳): プライバシ保護機械学習(PPML)の主な目的は、プライバシ保護と、マシンラーニングモデルの構築に使用されるデータに対するセキュリティを提供することである。
PPMLにはSecure Multi-Party Computation, Differential Privacy, Homomorphic Encryption (HE)など,さまざまなテクニックがある。
これらのテクニックは、さまざまな機械学習モデル、さらにはDeep Learning Networksと組み合わせて、データのプライバシとユーザのアイデンティティを保護する。
本稿では,プライバシを保護しつつ,モデルの効率を損なわない完全準同型の暗号化ウェーブレットニューラルネットワークを提案する。
金融・医療分野から収集した7つのデータセットに対して,提案手法の有効性を検証した。
その結果,提案手法は暗号化されていないモデルと同様の性能を示した。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Privacy-Preserving Chaotic Extreme Learning Machine with Fully
Homomorphic Encryption [5.010425616264462]
完全同型暗号を用いたカオス・エクストリーム学習マシンとその暗号化形式を提案する。
提案手法は,ほとんどのデータセットにおいて,従来のエクストリーム学習マシンとよくあるいは類似している。
論文 参考訳(メタデータ) (2022-08-04T11:29:52Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。