論文の概要: Prive-HD: Privacy-Preserved Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2005.06716v1
- Date: Thu, 14 May 2020 04:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:49:25.320176
- Title: Prive-HD: Privacy-Preserved Hyperdimensional Computing
- Title(参考訳): Prive-HD:プライバシー保護型超次元コンピューティング
- Authors: Behnam Khaleghi, Mohsen Imani, Tajana Rosing
- Abstract要約: 超次元(HD)コンピューティングは、その軽量な計算とロバスト性により、勢いを増している。
本稿では,クラウドにホストされた推論のために送信された情報を難読化するために,差分プライベートモデルを実現するための精度プライバシトレードオフ手法を提案する。
- 参考スコア(独自算出の注目度): 18.512391787497673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The privacy of data is a major challenge in machine learning as a trained
model may expose sensitive information of the enclosed dataset. Besides, the
limited computation capability and capacity of edge devices have made
cloud-hosted inference inevitable. Sending private information to remote
servers makes the privacy of inference also vulnerable because of susceptible
communication channels or even untrustworthy hosts. In this paper, we target
privacy-preserving training and inference of brain-inspired Hyperdimensional
(HD) computing, a new learning algorithm that is gaining traction due to its
light-weight computation and robustness particularly appealing for edge devices
with tight constraints. Indeed, despite its promising attributes, HD computing
has virtually no privacy due to its reversible computation. We present an
accuracy-privacy trade-off method through meticulous quantization and pruning
of hypervectors, the building blocks of HD, to realize a differentially private
model as well as to obfuscate the information sent for cloud-hosted inference.
Finally, we show how the proposed techniques can be also leveraged for
efficient hardware implementation.
- Abstract(参考訳): トレーニングされたモデルが、囲まれたデータセットの機密情報を公開する可能性があるため、データのプライバシは機械学習の大きな課題である。
さらに、エッジデバイスの計算能力と容量の制限により、クラウドホスト推論は避けられなくなった。
リモートサーバにプライベート情報を送信することで、通信チャネルや信頼性の低いホストが原因で、推論のプライバシも脆弱になる。
本稿では,脳にインスパイアされた超次元(hd)コンピューティングのプライバシ保護トレーニングと推論を対象とし,その軽量な計算能力と頑健性によって注目を集めている新しい学習アルゴリズムである。
実際、その有望な特性にもかかわらず、hdコンピューティングはその可逆的な計算のために事実上プライバシーがない。
本稿では,hdのビルディングブロックである超ベクトルの細心の量子化とプルーニングを通した精度優先のトレードオフ法を提案する。
最後に,提案手法がハードウェアの効率的な実装にどのように活用できるかを示す。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning [47.96266341738642]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用する, 値ベースアルゴリズムと勾配ベースアルゴリズムに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - Considerations for Differentially Private Learning with Large-Scale
Public Pretraining [58.75893136929649]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A Privacy-Preserving Outsourced Data Model in Cloud Environment [8.176020822058586]
データセキュリティとプライバシの問題は、機械学習ツールの使用にとって重要な障害のひとつだ。
機械学習効率を損なうことなくデータのプライバシを保護するプライバシ保存モデルを提案する。
Fogノードは、データ所有者からノイズ付加データを収集し、ストレージ、計算、分類タスクの実行のためにクラウドプラットフォームに移行する。
論文 参考訳(メタデータ) (2022-11-24T11:27:30Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - DarKnight: An Accelerated Framework for Privacy and Integrity Preserving
Deep Learning Using Trusted Hardware [3.1853566662905943]
DarKnightは大規模なDNNトレーニングのためのフレームワークで、入力のプライバシと整合性を保護する。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
DarKnightのデータ難読化戦略は、クラウドサーバにおける証明可能なデータのプライバシと計算の整合性を提供する。
論文 参考訳(メタデータ) (2022-06-30T19:58:36Z) - SoK: Privacy-preserving Deep Learning with Homomorphic Encryption [2.9069679115858755]
ホモモルフィック暗号化(HE)は、その内容を明らかにすることなく暗号化データ上で実行される。
プライバシ保護のために、ニューラルネットワークとHEを組み合わせたアプローチを詳細に検討します。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限といった,HEベースのプライバシ保護の深層学習には,数多くの課題がある。
論文 参考訳(メタデータ) (2021-12-23T22:03:27Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Privacy and Integrity Preserving Training Using Trusted Hardware [4.5843599120944605]
DarKnightは、入力のプライバシーと整合性を保護しながら、大規模な計算トレーニングのためのフレームワークです。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
論文 参考訳(メタデータ) (2021-05-01T19:33:28Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。