論文の概要: Practical and Private Hybrid ML Inference with Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2509.01253v1
- Date: Mon, 01 Sep 2025 08:43:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.603845
- Title: Practical and Private Hybrid ML Inference with Fully Homomorphic Encryption
- Title(参考訳): 完全同型暗号化を用いた実用的およびプライベートなハイブリッドML推論
- Authors: Sayan Biswas, Philippe Chartier, Akash Dhasade, Tom Jurien, David Kerriou, Anne-Marie Kerrmarec, Mohammed Lemou, Franklin Tranie, Martijn de Vos, Milos Vujasinovic,
- Abstract要約: Safhireはハイブリッド推論フレームワークで、サーバ上で暗号化されたリニアレイヤを実行する。
正確なアクティベーションをサポートし、計算を大幅に削減する。
Orionよりも1.5倍から10.5倍低い推論レイテンシを実現している。
- 参考スコア(独自算出の注目度): 0.34953784594970894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In contemporary cloud-based services, protecting users' sensitive data and ensuring the confidentiality of the server's model are critical. Fully homomorphic encryption (FHE) enables inference directly on encrypted inputs, but its practicality is hindered by expensive bootstrapping and inefficient approximations of non-linear activations. We introduce Safhire, a hybrid inference framework that executes linear layers under encryption on the server while offloading non-linearities to the client in plaintext. This design eliminates bootstrapping, supports exact activations, and significantly reduces computation. To safeguard model confidentiality despite client access to intermediate outputs, Safhire applies randomized shuffling, which obfuscates intermediate values and makes it practically impossible to reconstruct the model. To further reduce latency, Safhire incorporates advanced optimizations such as fast ciphertext packing and partial extraction. Evaluations on multiple standard models and datasets show that Safhire achieves 1.5X - 10.5X lower inference latency than Orion, a state-of-the-art baseline, with manageable communication overhead and comparable accuracy, thereby establishing the practicality of hybrid FHE inference.
- Abstract(参考訳): 現代のクラウドベースのサービスでは、ユーザの機密データを保護し、サーバモデルの機密性を保証することが重要である。
完全同型暗号化(FHE)は、暗号化された入力を直接推論することを可能にするが、その実用性は高価なブートストラップと非線形アクティベーションの非効率な近似によって妨げられる。
サファイア(Safhire)は、クライアントに非線型性を平文でオフロードしながら、サーバ上の暗号化下で線形層を実行するハイブリッド推論フレームワークである。
この設計はブートストラップを排除し、正確なアクティベーションをサポートし、計算を大幅に削減する。
中間出力へのクライアントアクセスにもかかわらず、モデルの機密性を保護するために、Safhireはランダム化されたシャッフルを適用する。
さらにレイテンシを低減するため、Safhireは高速な暗号文パッキングや部分抽出といった高度な最適化を取り入れている。
複数の標準モデルとデータセットの評価によると、Safhireは、管理可能な通信オーバーヘッドと同等の精度を持つ最先端のベースラインであるOrionよりも1.5Xから10.5倍低い推論遅延を実現し、ハイブリッドFHE推論の実用性を確立する。
関連論文リスト
- SDGO: Self-Discrimination-Guided Optimization for Consistent Safety in Large Language Models [48.62892618209157]
大規模言語モデル(LLM)は、様々な自然言語処理タスクに優れるが、ジェイルブレイク攻撃には弱い。
本稿では,モデル固有の差別と生成能力の整合性を検討する。
我々の方法は、トレーニングフェーズ中に追加の注釈付きデータや外部モデルを必要としない。
論文 参考訳(メタデータ) (2025-08-21T15:26:09Z) - Efficient Privacy-Preserving Cross-Silo Federated Learning with Multi-Key Homomorphic Encryption [7.332140296779856]
フェデレートラーニング(FL)は、プライバシ攻撃の影響を受けやすい。
最近の研究は、MKHE(Multi-Key Homomorphic Encryption)とFLを組み合わせたものである。
我々は,MKHEをベースとした効率的なプライバシ保存FLフレームワークMASERを提案する。
論文 参考訳(メタデータ) (2025-05-20T18:08:15Z) - Theoretical Insights in Model Inversion Robustness and Conditional Entropy Maximization for Collaborative Inference Systems [89.35169042718739]
協調推論により、クラウドサーバに機密データを公開することなく、エンドユーザは強力なディープラーニングモデルを活用することができる。
近年の研究では、これらの中間機能は、情報が漏洩し、生データをモデル反転攻撃(MIA)によって再構築できるため、プライバシーを十分に保持できないことが判明している。
この研究はまず、与えられた中間特徴の入力の条件エントロピーが、任意のMIAの下での再構成平均二乗誤差(MSE)の保証された下界を与えることを理論的に証明する。
そして、ガウス混合推定に基づいて、この条件付きエントロピーを有界化するための微分可能かつ可解な尺度を導出し、逆ロバスト性を高める条件付きエントロピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-01T07:15:21Z) - A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーテッド・ラーニング(FL)は、医療におけるプライバシー保護機械学習にとって重要なアプローチである。
これらのシステムの現在のセキュリティ実装は、基本的なトレードオフに直面している。
我々は、選択的同型暗号化、差分プライバシー、ビットワイズスクランブルを戦略的に組み合わせて堅牢なセキュリティを実現する新しいアプローチであるFast and Secure Federated Learningを提示する。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。