論文の概要: Enabling Inference Privacy with Adaptive Noise Injection
- arxiv url: http://arxiv.org/abs/2104.02261v1
- Date: Tue, 6 Apr 2021 03:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:16:57.595808
- Title: Enabling Inference Privacy with Adaptive Noise Injection
- Title(参考訳): 適応ノイズ注入による推論プライバシーの実現
- Authors: Sanjay Kariyappa, Ousmane Dia and Moinuddin K Qureshi
- Abstract要約: ユーザ対応のソフトウェアサービスは、クライアントの推論タスクを実行するDeep Neural Network(DNN)モデルをホストするために、リモートサーバにますます依存している。
このようなサービスは、クライアントがサービスプロバイダに入力データを送信し、DNNを使用して処理し、クライアントに出力予測を返す必要があります。
我々は,クライアント側で軽量なdnnを用いて各入力にノイズを注入する適応型ノイズ注入(ani)を提案し,それをサービスプロバイダに送信して推論を行う。
- 参考スコア(独自算出の注目度): 11.086440815804226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-facing software services are becoming increasingly reliant on remote
servers to host Deep Neural Network (DNN) models, which perform inference tasks
for the clients. Such services require the client to send input data to the
service provider, who processes it using a DNN and returns the output
predictions to the client. Due to the rich nature of the inputs such as images
and speech, the input often contains more information than what is necessary to
perform the primary inference task. Consequently, in addition to the primary
inference task, a malicious service provider could infer secondary (sensitive)
attributes from the input, compromising the client's privacy. The goal of our
work is to improve inference privacy by injecting noise to the input to hide
the irrelevant features that are not conducive to the primary classification
task. To this end, we propose Adaptive Noise Injection (ANI), which uses a
light-weight DNN on the client-side to inject noise to each input, before
transmitting it to the service provider to perform inference. Our key insight
is that by customizing the noise to each input, we can achieve state-of-the-art
trade-off between utility and privacy (up to 48.5% degradation in
sensitive-task accuracy with <1% degradation in primary accuracy),
significantly outperforming existing noise injection schemes. Our method does
not require prior knowledge of the sensitive attributes and incurs minimal
computational overheads.
- Abstract(参考訳): ユーザ対応のソフトウェアサービスは、クライアントの推論タスクを実行するDeep Neural Network(DNN)モデルをホストするリモートサーバにますます依存している。
このようなサービスでは、クライアントがサービスプロバイダに入力データを送信し、DNNを使用して処理し、クライアントに出力予測を返す必要があります。
画像や音声などの入力の豊富な性質から、入力は一次推論タスクを実行するために必要な情報よりも多くの情報を含むことが多い。
従って、プライマリ推論タスクに加えて、悪意のあるサービスプロバイダは入力から二次(センシティブ)属性を推測し、クライアントのプライバシを侵害することができる。
本研究の目的は、入力にノイズを注入し、一次分類タスクに関係のない特徴を隠すことにより、推論プライバシを改善することである。
そこで本研究では,クライアント側の軽量DNNを用いて各入力にノイズを注入し,それをサービスプロバイダに送信して推論を行うAdaptive Noise Injection (ANI)を提案する。
我々の重要な洞察は、各入力にノイズをカスタマイズすることで、ユーティリティとプライバシの間の最先端のトレードオフを達成することができる(最大48.5%の機密タスク精度の低下と1%の一次精度の低下)。
本手法では,感度特性の事前知識を必要とせず,計算オーバーヘッドを最小限に抑える。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Privacy-Preserving Intrusion Detection using Convolutional Neural Networks [0.25163931116642785]
顧客のプライベートデータに対して分析サービスを提供するモデルオーナのユースケースについて検討する。
データに関する情報はアナリストに公開されず,モデルに関する情報は顧客にリークされない。
プライバシ保護技術を用いた畳み込みニューラルネットワークに基づく攻撃検知システムを構築した。
論文 参考訳(メタデータ) (2024-04-15T09:56:36Z) - Adaptive Differential Privacy in Federated Learning: A Priority-Based
Approach [0.0]
フェデレートラーニング(FL)は、ローカルデータセットに直接アクセスせずにグローバルモデルを開発する。
DPはパラメータに一定のノイズを加えることで、プライバシーを保証するフレームワークを提供する。
本稿では,特徴量の相対的重要度に基づいて入射雑音の値を決定するFLの適応雑音付加法を提案する。
論文 参考訳(メタデータ) (2024-01-04T03:01:15Z) - Differentially Private Deep Q-Learning for Pattern Privacy Preservation
in MEC Offloading [76.0572817182483]
攻撃者は、エッジサーバ(ES)のキュー情報とユーザの使用パターンを推測するために、オフロードの決定を盗み取ることができる。
パターンプライバシ(PP)を維持しつつ,レイテンシ,ESのエネルギー消費,タスク削減率を両立させるオフロード戦略を提案する。
そこで我々はDP-DQOアルゴリズムを開発し,PP問題にノイズを注入することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T12:50:18Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Collaborative Self Organizing Map with DeepNNs for Fake Task Prevention
in Mobile Crowdsensing [26.6224977032229]
モバイルクラウドセンシング(Mobile Crowdsensing、MCS)は、さまざまなサービスプロバイダがデータを収集、処理、分析する方法を変革したセンシングパラダイムである。
データ中毒、クロッギングタスク攻撃、偽検知タスクなどの様々な脅威は、MCSシステムの性能に悪影響を及ぼす。
この作業では、教師なしの方法でトレーニングされたニューラルネットワークであるSelf Organizing Feature Map(SOFM)を使用して、データセット内の正当なデータを事前クラスタする。
論文 参考訳(メタデータ) (2022-02-17T04:56:28Z) - Paralinguistic Privacy Protection at the Edge [5.349852254138085]
EDGYは高次元音声データを変換・フィルタリングする表現学習フレームワークで,クラウドへのオフロードに先立ってエッジの感度特性を識別・保持する。
その結果, EDGYは数ミリ秒で動作し, ABXスコアは0.2%向上し, 生音声信号から言語表現を学習する際のペナルティは最小限に抑えられた。
論文 参考訳(メタデータ) (2020-11-04T14:11:35Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - The Variational Bandwidth Bottleneck: Stochastic Evaluation on an
Information Budget [164.65771897804404]
多くのアプリケーションにおいて、複雑な入力データから関連する情報のみを抽出することが望ましい。
情報ボトルネック法は、これを情報理論最適化問題として定式化する。
本稿では,特権情報の推定値について,各例について決定する帯域幅のばらつきボトルネックを提案する。
論文 参考訳(メタデータ) (2020-04-24T18:29:31Z) - Corella: A Private Multi Server Learning Approach based on Correlated
Queries [30.3330177204504]
データプライバシーを保護する代替手段として、$textitCorella$を提案する。
提案手法はサーバのクラスタに依存しており,少なくともmathbbN$のTは,それぞれが学習モデルを実行することでコロードを行うことができる。
ノイズのばらつきは、情報漏洩を最大$T$サーバの任意のサブセットに、理論的に無視できるほど大きく設定されている。
論文 参考訳(メタデータ) (2020-03-26T17:44:00Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。