論文の概要: Two Birds with One Stone: Differential Privacy by Low-power SRAM Memory
- arxiv url: http://arxiv.org/abs/2403.17303v1
- Date: Tue, 26 Mar 2024 01:14:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 17:05:31.361019
- Title: Two Birds with One Stone: Differential Privacy by Low-power SRAM Memory
- Title(参考訳): 1つの石を持つ2羽の鳥:低消費電力SRAMメモリによる差分プライバシー
- Authors: Jianqing Liu, Na Gong, Hritom Das,
- Abstract要約: 設計による差分プライバシーを実現するためのハードウェアベースの手法を開発した。
本設計では,メモリに格納されたデータに対して,固有のハードウェアノイズを制御されたLDPノイズに利用することにより,ローカルディファレンシャルプライバシ(LDP)を実現する。
結果は、開発技術は差分プライベートであり、88.58%のシステムパワーを節約し、ソフトウェアベースのDPメカニズムを106回以上高速化する一方で、2.46%のチップオーバーヘッドと7.81%のデータリカバリしか発生しないことを確認した。
- 参考スコア(独自算出の注目度): 3.574643703197513
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The software-based implementation of differential privacy mechanisms has been shown to be neither friendly for lightweight devices nor secure against side-channel attacks. In this work, we aim to develop a hardware-based technique to achieve differential privacy by design. In contrary to the conventional software-based noise generation and injection process, our design realizes local differential privacy (LDP) by harnessing the inherent hardware noise into controlled LDP noise when data is stored in the memory. Specifically, the noise is tamed through a novel memory design and power downscaling technique, which leads to double-faceted gains in privacy and power efficiency. A well-round study that consists of theoretical design and analysis and chip implementation and experiments is presented. The results confirm that the developed technique is differentially private, saves 88.58% system power, speeds up software-based DP mechanisms by more than 10^6 times, while only incurring 2.46% chip overhead and 7.81% estimation errors in data recovery.
- Abstract(参考訳): ソフトウェアベースの差分プライバシー機構の実装は、軽量デバイスに友好的でも、サイドチャネル攻撃に対して安全でもないことが示されている。
本研究は,設計による差分プライバシーを実現するハードウェアベースの技術を開発することを目的としている。
従来のソフトウェアベースのノイズ発生・注入方式とは対照的に,本設計では,メモリに格納されたデータに固有のハードウェアノイズを制御されたLDPノイズに利用することにより,ローカル差分プライバシ(LDP)を実現する。
特に、このノイズは、新しいメモリ設計とパワーダウンスケーリング技術によって調整され、プライバシーと電力効率の両面的な向上につながります。
理論設計・分析・チップ実装・実験から成る総合的な研究について述べる。
その結果、この技術は差分プライベートであり、88.58%のシステムパワーを節約し、ソフトウェアベースのDPメカニズムを10^6倍に高速化する一方で、2.46%のチップオーバーヘッドと7.81%のデータリカバリしか発生しないことがわかった。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Scalable Differential Privacy Mechanisms for Real-Time Machine Learning Applications [0.0]
大規模言語モデル(LLM)は、ユーザのプライバシ保護が最重要であるリアルタイム機械学習アプリケーションに、ますます統合されている。
従来の差分プライバシーメカニズムは、プライバシーと精度のバランスをとるのに苦労することが多い。
当社では,堅牢なプライバシ保証とモデルパフォーマンスの向上を重視した,リアルタイム機械学習に適したフレームワークであるScalable Differential Privacy(SDP)を紹介した。
論文 参考訳(メタデータ) (2024-09-16T20:52:04Z) - Explainable Differential Privacy-Hyperdimensional Computing for Balancing Privacy and Transparency in Additive Manufacturing Monitoring [5.282482641822561]
微分プライバシー(DP)は、機械学習(ML)モデルに数学的に制御されたノイズを追加する。
本研究では,差分プライバシー-高次元計算(DP-HD)フレームワークを用いて,雑音が精度に与える影響を定量化する。
実験の結果,DP-HDは操作効率,予測精度,プライバシー保護に優れていた。
論文 参考訳(メタデータ) (2024-07-09T17:42:26Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - SoftPatch: Unsupervised Anomaly Detection with Noisy Data [67.38948127630644]
本稿では,画像センサ異常検出におけるラベルレベルのノイズを初めて考察する。
本稿では,メモリベースの非教師付きAD手法であるSoftPatchを提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
論文 参考訳(メタデータ) (2024-03-21T08:49:34Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Joint Privacy Enhancement and Quantization in Federated Learning [23.36363480217293]
Federated Learning(FL)は、エッジデバイスで利用可能なプライベートデータを使用して機械学習モデルをトレーニングするための新興パラダイムである。
共同プライバシー強化・量子化法(JoPEQ)を提案する。
所望のプライバシレベルを保持しながら、必要なビットレートに応じてデータを同時に定量化することを示す。
論文 参考訳(メタデータ) (2022-08-23T11:42:58Z) - A compressive multi-kernel method for privacy-preserving machine
learning [5.908471365011942]
この研究は、以前は非干渉的な2つのコンプレッシブプライバシとマルチカーネル方式に基づいている。
提案手法は,MHEALTHとHARの2つの移動センシングデータセットを用いて評価する。
論文 参考訳(メタデータ) (2021-06-20T10:27:13Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z) - A deep learning model for noise prediction on near-term quantum devices [137.6408511310322]
我々は、量子デバイスからの実験データに基づいて畳み込みニューラルネットワークをトレーニングし、ハードウェア固有のノイズモデルを学ぶ。
コンパイラはトレーニングされたネットワークをノイズ予測器として使用し、期待されるノイズを最小限に抑えるために回路にゲートのシーケンスを挿入する。
論文 参考訳(メタデータ) (2020-05-21T17:47:29Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。