論文の概要: Prive-HD: Privacy-Preserved Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2005.06716v1
- Date: Thu, 14 May 2020 04:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:49:25.320176
- Title: Prive-HD: Privacy-Preserved Hyperdimensional Computing
- Title(参考訳): Prive-HD:プライバシー保護型超次元コンピューティング
- Authors: Behnam Khaleghi, Mohsen Imani, Tajana Rosing
- Abstract要約: 超次元(HD)コンピューティングは、その軽量な計算とロバスト性により、勢いを増している。
本稿では,クラウドにホストされた推論のために送信された情報を難読化するために,差分プライベートモデルを実現するための精度プライバシトレードオフ手法を提案する。
- 参考スコア(独自算出の注目度): 18.512391787497673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The privacy of data is a major challenge in machine learning as a trained
model may expose sensitive information of the enclosed dataset. Besides, the
limited computation capability and capacity of edge devices have made
cloud-hosted inference inevitable. Sending private information to remote
servers makes the privacy of inference also vulnerable because of susceptible
communication channels or even untrustworthy hosts. In this paper, we target
privacy-preserving training and inference of brain-inspired Hyperdimensional
(HD) computing, a new learning algorithm that is gaining traction due to its
light-weight computation and robustness particularly appealing for edge devices
with tight constraints. Indeed, despite its promising attributes, HD computing
has virtually no privacy due to its reversible computation. We present an
accuracy-privacy trade-off method through meticulous quantization and pruning
of hypervectors, the building blocks of HD, to realize a differentially private
model as well as to obfuscate the information sent for cloud-hosted inference.
Finally, we show how the proposed techniques can be also leveraged for
efficient hardware implementation.
- Abstract(参考訳): トレーニングされたモデルが、囲まれたデータセットの機密情報を公開する可能性があるため、データのプライバシは機械学習の大きな課題である。
さらに、エッジデバイスの計算能力と容量の制限により、クラウドホスト推論は避けられなくなった。
リモートサーバにプライベート情報を送信することで、通信チャネルや信頼性の低いホストが原因で、推論のプライバシも脆弱になる。
本稿では,脳にインスパイアされた超次元(hd)コンピューティングのプライバシ保護トレーニングと推論を対象とし,その軽量な計算能力と頑健性によって注目を集めている新しい学習アルゴリズムである。
実際、その有望な特性にもかかわらず、hdコンピューティングはその可逆的な計算のために事実上プライバシーがない。
本稿では,hdのビルディングブロックである超ベクトルの細心の量子化とプルーニングを通した精度優先のトレードオフ法を提案する。
最後に,提案手法がハードウェアの効率的な実装にどのように活用できるかを示す。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Lancelot: Towards Efficient and Privacy-Preserving Byzantine-Robust Federated Learning within Fully Homomorphic Encryption [10.685816010576918]
我々は,データプライバシを保ちながら悪意あるクライアント活動を保護するために,完全同型暗号化(FHE)を利用する,革新的で計算効率のよいBRFLフレームワークであるLancelotを提案する。
医用画像診断や広く使われている公開画像データセットを含む大規模なテストでは、Lancelotが既存の手法を著しく上回り、データのプライバシを維持しながら、処理速度を20倍以上に向上させています。
論文 参考訳(メタデータ) (2024-08-12T14:48:25Z) - VeriSplit: Secure and Practical Offloading of Machine Learning Inferences across IoT Devices [31.247069150077632]
多くのIoT(Internet-of-Things)デバイスは、機械学習推論を実行するためにクラウド計算リソースに依存している。
これは高価で、ユーザーのプライバシーを心配する可能性がある。
ローカルで利用可能なデバイスに機械学習推論をオフロードするフレームワークであるVeriSplitを提案する。
論文 参考訳(メタデータ) (2024-06-02T01:28:38Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - DarKnight: An Accelerated Framework for Privacy and Integrity Preserving
Deep Learning Using Trusted Hardware [3.1853566662905943]
DarKnightは大規模なDNNトレーニングのためのフレームワークで、入力のプライバシと整合性を保護する。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
DarKnightのデータ難読化戦略は、クラウドサーバにおける証明可能なデータのプライバシと計算の整合性を提供する。
論文 参考訳(メタデータ) (2022-06-30T19:58:36Z) - SoK: Privacy-preserving Deep Learning with Homomorphic Encryption [2.9069679115858755]
ホモモルフィック暗号化(HE)は、その内容を明らかにすることなく暗号化データ上で実行される。
プライバシ保護のために、ニューラルネットワークとHEを組み合わせたアプローチを詳細に検討します。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限といった,HEベースのプライバシ保護の深層学習には,数多くの課題がある。
論文 参考訳(メタデータ) (2021-12-23T22:03:27Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。