論文の概要: Two Birds with One Stone: Differential Privacy by Low-power SRAM Memory
- arxiv url: http://arxiv.org/abs/2403.17303v1
- Date: Tue, 26 Mar 2024 01:14:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 17:05:31.361019
- Title: Two Birds with One Stone: Differential Privacy by Low-power SRAM Memory
- Title(参考訳): 1つの石を持つ2羽の鳥:低消費電力SRAMメモリによる差分プライバシー
- Authors: Jianqing Liu, Na Gong, Hritom Das,
- Abstract要約: 設計による差分プライバシーを実現するためのハードウェアベースの手法を開発した。
本設計では,メモリに格納されたデータに対して,固有のハードウェアノイズを制御されたLDPノイズに利用することにより,ローカルディファレンシャルプライバシ(LDP)を実現する。
結果は、開発技術は差分プライベートであり、88.58%のシステムパワーを節約し、ソフトウェアベースのDPメカニズムを106回以上高速化する一方で、2.46%のチップオーバーヘッドと7.81%のデータリカバリしか発生しないことを確認した。
- 参考スコア(独自算出の注目度): 3.574643703197513
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The software-based implementation of differential privacy mechanisms has been shown to be neither friendly for lightweight devices nor secure against side-channel attacks. In this work, we aim to develop a hardware-based technique to achieve differential privacy by design. In contrary to the conventional software-based noise generation and injection process, our design realizes local differential privacy (LDP) by harnessing the inherent hardware noise into controlled LDP noise when data is stored in the memory. Specifically, the noise is tamed through a novel memory design and power downscaling technique, which leads to double-faceted gains in privacy and power efficiency. A well-round study that consists of theoretical design and analysis and chip implementation and experiments is presented. The results confirm that the developed technique is differentially private, saves 88.58% system power, speeds up software-based DP mechanisms by more than 10^6 times, while only incurring 2.46% chip overhead and 7.81% estimation errors in data recovery.
- Abstract(参考訳): ソフトウェアベースの差分プライバシー機構の実装は、軽量デバイスに友好的でも、サイドチャネル攻撃に対して安全でもないことが示されている。
本研究は,設計による差分プライバシーを実現するハードウェアベースの技術を開発することを目的としている。
従来のソフトウェアベースのノイズ発生・注入方式とは対照的に,本設計では,メモリに格納されたデータに固有のハードウェアノイズを制御されたLDPノイズに利用することにより,ローカル差分プライバシ(LDP)を実現する。
特に、このノイズは、新しいメモリ設計とパワーダウンスケーリング技術によって調整され、プライバシーと電力効率の両面的な向上につながります。
理論設計・分析・チップ実装・実験から成る総合的な研究について述べる。
その結果、この技術は差分プライベートであり、88.58%のシステムパワーを節約し、ソフトウェアベースのDPメカニズムを10^6倍に高速化する一方で、2.46%のチップオーバーヘッドと7.81%のデータリカバリしか発生しないことがわかった。
関連論文リスト
- Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - SoftPatch: Unsupervised Anomaly Detection with Noisy Data [67.38948127630644]
本稿では,画像センサ異常検出におけるラベルレベルのノイズを初めて考察する。
本稿では,メモリベースの非教師付きAD手法であるSoftPatchを提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
論文 参考訳(メタデータ) (2024-03-21T08:49:34Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Joint Privacy Enhancement and Quantization in Federated Learning [23.36363480217293]
Federated Learning(FL)は、エッジデバイスで利用可能なプライベートデータを使用して機械学習モデルをトレーニングするための新興パラダイムである。
共同プライバシー強化・量子化法(JoPEQ)を提案する。
所望のプライバシレベルを保持しながら、必要なビットレートに応じてデータを同時に定量化することを示す。
論文 参考訳(メタデータ) (2022-08-23T11:42:58Z) - Private, Efficient, and Accurate: Protecting Models Trained by
Multi-party Learning with Differential Privacy [8.8480262507008]
セキュアなDPSGDプロトコルと2つの最適化手法からなるPEA(Private, Efficient, Accurate)を提案する。
TF-Encrypted と Queqiao の2つのオープンソース MPL フレームワークで PEA を実装しています。
PEAはLAN設定下7分以内でCIFAR-10の精度88%の差分プライベート分類モデルを訓練できることを示した。
論文 参考訳(メタデータ) (2022-08-18T06:48:25Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - A compressive multi-kernel method for privacy-preserving machine
learning [5.908471365011942]
この研究は、以前は非干渉的な2つのコンプレッシブプライバシとマルチカーネル方式に基づいている。
提案手法は,MHEALTHとHARの2つの移動センシングデータセットを用いて評価する。
論文 参考訳(メタデータ) (2021-06-20T10:27:13Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z) - A deep learning model for noise prediction on near-term quantum devices [137.6408511310322]
我々は、量子デバイスからの実験データに基づいて畳み込みニューラルネットワークをトレーニングし、ハードウェア固有のノイズモデルを学ぶ。
コンパイラはトレーニングされたネットワークをノイズ予測器として使用し、期待されるノイズを最小限に抑えるために回路にゲートのシーケンスを挿入する。
論文 参考訳(メタデータ) (2020-05-21T17:47:29Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。