論文の概要: Functional Encryption in Secure Neural Network Training: Data Leakage and Practical Mitigations
- arxiv url: http://arxiv.org/abs/2509.21497v1
- Date: Thu, 25 Sep 2025 19:56:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.961396
- Title: Functional Encryption in Secure Neural Network Training: Data Leakage and Practical Mitigations
- Title(参考訳): セキュアニューラルネットワークトレーニングにおける機能暗号化:データ漏洩と実践的軽減
- Authors: Alexandru Ioniţă, Andreea Ioniţă,
- Abstract要約: 本稿では,関数暗号化(FE)を用いて暗号化データのセキュアなトレーニングを行うニューラルネットワークに対する攻撃を提案する。
1つのアプローチは暗号化に頼ることなくセキュリティを保証するが、もう1つは関数を隠蔽する内部製品技術を使用する。
- 参考スコア(独自算出の注目度): 45.88028371034407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increased interest in artificial intelligence, Machine Learning as a Service provides the infrastructure in the Cloud for easy training, testing, and deploying models. However, these systems have a major privacy issue: uploading sensitive data to the Cloud, especially during training. Therefore, achieving secure Neural Network training has been on many researchers' minds lately. More and more solutions for this problem are built around a main pillar: Functional Encryption (FE). Although these approaches are very interesting and offer a new perspective on ML training over encrypted data, some vulnerabilities do not seem to be taken into consideration. In our paper, we present an attack on neural networks that uses FE for secure training over encrypted data. Our approach uses linear programming to reconstruct the original input, unveiling the previous security promises. To address the attack, we propose two solutions for secure training and inference that involve the client during the computation phase. One approach ensures security without relying on encryption, while the other uses function-hiding inner-product techniques.
- Abstract(参考訳): 人工知能への関心が高まり、機械学習・アズ・ア・サービス(Machine Learning as a Service)は、モデルのトレーニング、テスト、デプロイを容易にするクラウドのインフラストラクチャを提供する。
しかし、これらのシステムには、特にトレーニング中に機密データをクラウドにアップロードするという、大きなプライバシー上の問題がある。
そのため、近年、セキュアなニューラルネットワークトレーニングが多くの研究者の心に当てられている。
この問題に対する多くのソリューションが、主要な柱である関数暗号化(FE)を中心に構築されている。
これらのアプローチは非常に興味深いもので、暗号化データに対するMLトレーニングに関する新たな視点を提供するが、いくつかの脆弱性は考慮されていないようだ。
本稿では、FEを用いて暗号化されたデータに対するセキュアなトレーニングを行うニューラルネットワークに対する攻撃について述べる。
我々のアプローチは線形プログラミングを用いて元の入力を再構築し、以前のセキュリティの約束を公表する。
この攻撃に対処するため、計算フェーズ中にクライアントが関与するセキュアなトレーニングと推論のための2つのソリューションを提案する。
1つのアプローチは暗号化に頼ることなくセキュリティを保証するが、もう1つは関数を隠蔽する内部製品技術を使用する。
関連論文リスト
- A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーテッド・ラーニング(FL)は、医療におけるプライバシー保護機械学習にとって重要なアプローチである。
これらのシステムの現在のセキュリティ実装は、基本的なトレードオフに直面している。
我々は、選択的同型暗号化、差分プライバシー、ビットワイズスクランブルを戦略的に組み合わせて堅牢なセキュリティを実現する新しいアプローチであるFast and Secure Federated Learningを提示する。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - PriPHiT: Privacy-Preserving Hierarchical Training of Deep Neural Networks [44.0097014096626]
エッジデバイスとクラウドサーバの両方でディープラーニングモデルのトレーニングフェーズを実行する方法を提案する。
提案するプライバシ保存方法は,敵の早期出口を利用してエッジのセンシティブなコンテンツを抑制し,タスク関連情報をクラウドに送信する。
論文 参考訳(メタデータ) (2024-08-09T14:33:34Z) - Hierarchical Training of Deep Neural Networks Using Early Exiting [42.186536611404165]
深層ニューラルネットワークは、ビジョンタスクに最先端の精度を提供するが、トレーニングにはかなりのリソースを必要とする。
ディープニューラルネットワークは、データを取得するエッジデバイスから遠く離れたクラウドサーバでトレーニングされる。
本研究では,エッジワーカとクラウドワーカの分割アーキテクチャにおける早期出口を用いた,深層ニューラルネットワークの階層的学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-04T11:30:16Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。