論文の概要: Privacy for Rescue: A New Testimony Why Privacy is Vulnerable In Deep
Models
- arxiv url: http://arxiv.org/abs/2001.00493v1
- Date: Tue, 31 Dec 2019 15:55:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 21:29:35.337689
- Title: Privacy for Rescue: A New Testimony Why Privacy is Vulnerable In Deep
Models
- Title(参考訳): privacy for rescue: ディープモデルでプライバシが脆弱な理由
- Authors: Ruiyuan Gao, Ming Dun, Hailong Yang, Zhongzhi Luan, Depei Qian
- Abstract要約: エッジクラウドシステム実行モデルにおけるプライバシ保護問題の形式的定義を示す。
我々は最先端の手法を分析し、それらの手法の欠点を指摘する。
本稿では,プライバシー保護手法の有効性を評価するために,より正確な2つの指標を提案する。
- 参考スコア(独自算出の注目度): 6.902994369582068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The huge computation demand of deep learning models and limited computation
resources on the edge devices calls for the cooperation between edge device and
cloud service by splitting the deep models into two halves. However,
transferring the intermediates results from the partial models between edge
device and cloud service makes the user privacy vulnerable since the attacker
can intercept the intermediate results and extract privacy information from
them. Existing research works rely on metrics that are either impractical or
insufficient to measure the effectiveness of privacy protection methods in the
above scenario, especially from the aspect of a single user. In this paper, we
first present a formal definition of the privacy protection problem in the
edge-cloud system running DNN models. Then, we analyze the-state-of-the-art
methods and point out the drawbacks of their methods, especially the evaluation
metrics such as the Mutual Information (MI). In addition, we perform several
experiments to demonstrate that although existing methods perform well under
MI, they are not effective enough to protect the privacy of a single user. To
address the drawbacks of the evaluation metrics, we propose two new metrics
that are more accurate to measure the effectiveness of privacy protection
methods. Finally, we highlight several potential research directions to
encourage future efforts addressing the privacy protection problem.
- Abstract(参考訳): エッジデバイス上でのディープラーニングモデルと限られた計算リソースの巨大な計算要求は、エッジデバイスとクラウドサービスの連携を、深層モデルを2つに分割することで要求する。
しかし、エッジデバイスとクラウドサービスの間の部分モデルからの中間結果の転送は、攻撃者が中間結果を傍受し、それらからプライバシー情報を抽出できるため、ユーザのプライバシを脆弱にする。
既存の研究は、上記のシナリオにおけるプライバシー保護手法の有効性を測定するために、非実用的または不十分なメトリクスに依存しています。
本稿では,DNNモデルを実行するエッジクラウドシステムにおいて,プライバシ保護問題の形式的定義を示す。
そこで,我々は最先端の手法を分析し,それらの手法の欠点,特に相互情報(MI)などの評価指標を指摘する。
さらに,既存の手法はMI下では良好に動作するが,単一ユーザのプライバシを保護するには十分ではないことを示すために,いくつかの実験を行った。
評価指標の欠点に対処するため,プライバシー保護手法の有効性をより正確に測定する2つの新しい指標を提案する。
最後に,プライバシ保護問題に対する今後の取り組みを促すために,いくつかの研究の方向性を強調する。
関連論文リスト
- Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - Hide and Seek (HaS): A Lightweight Framework for Prompt Privacy
Protection [6.201275002179716]
本稿では,H(ide)" と "S(eek)" の2つのコアプロセスとして,匿名化のためのプライベートエンティティの隠蔽と非匿名化のためのプライベートエンティティの検索を行うHaSフレームワークを紹介する。
本研究では,HaSのプライバシー保護性能を定量的に評価するために,ブラックボックスモデルとホワイトボックスモデルの両方を提案する。
論文 参考訳(メタデータ) (2023-09-06T14:54:11Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Privacy in Practice: Private COVID-19 Detection in X-Ray Images
(Extended Version) [3.750713193320627]
私たちは、差分プライバシー(DP)を満たす機械学習モデルを作成します。
我々は、ユーティリティとプライバシのトレードオフをより広範囲に評価し、より厳格なプライバシー予算について検討する。
以上の結果から,MIAの課題依存的実践的脅威によって,必要なプライバシーレベルが異なる可能性が示唆された。
論文 参考訳(メタデータ) (2022-11-21T13:22:29Z) - FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems [15.39058389031301]
FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
提案するFedDefは,理論的保証を備えた新しい最適化型入力摂動防御戦略である。
4つのデータセットに対する4つの既存の防御を実験的に評価し、プライバシ保護の観点から、我々の防衛がすべてのベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-08T15:23:30Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。