論文の概要: EP-HDC: Hyperdimensional Computing with Encrypted Parameters for High-Throughput Privacy-Preserving Inference
- arxiv url: http://arxiv.org/abs/2511.00737v1
- Date: Sat, 01 Nov 2025 23:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.913676
- Title: EP-HDC: Hyperdimensional Computing with Encrypted Parameters for High-Throughput Privacy-Preserving Inference
- Title(参考訳): EP-HDC:高スループットプライバシ保存推論のための暗号化パラメータを用いた超次元計算
- Authors: Jaewoo Park, Chenghao Quan, Jongeun Lee,
- Abstract要約: ホモモルフィック暗号化(HE)は強力なプライバシ保護を提供するが、計算コストが高いため、単純なタスクに制限されている。
最近、HEに適用された超次元コンピューティング(HDC)は、プライバシー保護機械学習(PPML)に有望な性能を示した。
本稿では,クライアント側HEを特徴とする新しいPPML手法であるEP-HDCを提案する。
- 参考スコア(独自算出の注目度): 11.073716254421656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While homomorphic encryption (HE) provides strong privacy protection, its high computational cost has restricted its application to simple tasks. Recently, hyperdimensional computing (HDC) applied to HE has shown promising performance for privacy-preserving machine learning (PPML). However, when applied to more realistic scenarios such as batch inference, the HDC-based HE has still very high compute time as well as high encryption and data transmission overheads. To address this problem, we propose HDC with encrypted parameters (EP-HDC), which is a novel PPML approach featuring client-side HE, i.e., inference is performed on a client using a homomorphically encrypted model. Our EP-HDC can effectively mitigate the encryption and data transmission overhead, as well as providing high scalability with many clients while providing strong protection for user data and model parameters. In addition to application examples for our client-side PPML, we also present design space exploration involving quantization, architecture, and HE-related parameters. Our experimental results using the BFV scheme and the Face/Emotion datasets demonstrate that our method can improve throughput and latency of batch inference by orders of magnitude over previous PPML methods (36.52~1068x and 6.45~733x, respectively) with less than 1% accuracy degradation.
- Abstract(参考訳): ホモモルフィック暗号化(HE)は強力なプライバシー保護を提供するが、計算コストが高いため単純なタスクに制限されている。
近年、HEに適用された超次元コンピューティング(HDC)は、プライバシー保護機械学習(PPML)に有望な性能を示した。
しかし、バッチ推論のようなより現実的なシナリオに適用した場合、HDCベースのHEは依然として高い計算時間と高い暗号化とデータ転送オーバーヘッドを持っている。
この問題を解決するために,クライアント側HEを特徴とする新しいPPML手法であるEP-HDCを提案する。
我々のEP-HDCは、暗号化とデータ転送のオーバーヘッドを効果的に軽減し、多くのクライアントに高いスケーラビリティを提供しながら、ユーザデータとモデルパラメータの強力な保護を提供します。
クライアント側PPMLの応用例に加えて、量子化、アーキテクチャ、HE関連パラメータを含む設計空間の探索についても紹介する。
BFV と Face/Emotion を用いた実験の結果,従来の PPML 法 (36.52~1068x と 6.45~733x ) に比べて,バッチ推論のスループットとレイテンシを 1% 未満の精度で向上できることが示された。
関連論文リスト
- SenseCrypt: Sensitivity-guided Selective Homomorphic Encryption for Joint Federated Learning in Cross-Device Scenarios [7.594528129456989]
ホモモルフィック暗号化(HE)は、フェデレートラーニング(FL)の確保に有効であるが、高いオーバーヘッドと適応コストに悩まされている。
我々は、デバイス間FLクライアント毎のセキュリティとHEオーバーヘッドを適応的にバランスさせるために、感性誘導型選択型EnCryptionフレームワークであるSenseCryptを提案する。
実験では、SenseCryptは最先端の反転攻撃に対するセキュリティを確保し、IIDデータと同様に通常のモデルの精度を達成し、従来のHE手法と比較してトレーニング時間を58.4%から88.7%削減している。
論文 参考訳(メタデータ) (2025-08-06T05:42:41Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [54.53508601749513]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバーヘッドを最大52%削減し,システム遅延を最大63%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Efficient and Private: Memorisation under differentially private parameter-efficient fine-tuning in language models [2.3281513013731145]
特定のタスクのための微調整された大型言語モデル(LLM)は、不注意に記憶し、センシティブなトレーニングデータを漏洩する可能性があるため、プライバシのリスクをもたらす。
差分プライバシー(DP)は、これらのリスクを軽減するソリューションを提供するが、重大な計算とパフォーマンスのトレードオフをもたらす。
PEFT法は,パラメータを少なくし,プライバシリークを著しく低減しつつ,標準的な微調整に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-11-24T13:17:36Z) - Encryption-Friendly LLM Architecture [11.386436468650016]
ホモモルフィック暗号(homomorphic encryption, HE)は、暗号状態における算術演算をサポートする暗号プロトコルである。
本稿では,パーソナライズされた(プライベートな)微調整による推論を重視した改良型HE-Friendly Transformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-03T13:48:35Z) - A Pervasive, Efficient and Private Future: Realizing Privacy-Preserving Machine Learning Through Hybrid Homomorphic Encryption [2.434439232485276]
プライバシ保存機械学習(PPML)手法は、MLモデルのプライバシとセキュリティリスクを軽減するために提案されている。
これらの課題を克服するために、対称暗号とHEを組み合わせた現代の暗号方式が導入された。
本研究は,エッジデバイス向けのリソースフレンドリなPPMLプロトコルを提案することにより,HHEをML分野に導入する。
論文 参考訳(メタデータ) (2024-09-10T11:04:14Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Differentially Private Deep Q-Learning for Pattern Privacy Preservation
in MEC Offloading [76.0572817182483]
攻撃者は、エッジサーバ(ES)のキュー情報とユーザの使用パターンを推測するために、オフロードの決定を盗み取ることができる。
パターンプライバシ(PP)を維持しつつ,レイテンシ,ESのエネルギー消費,タスク削減率を両立させるオフロード戦略を提案する。
そこで我々はDP-DQOアルゴリズムを開発し,PP問題にノイズを注入することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T12:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。