論文の概要: Functional Encryption in Secure Neural Network Training: Data Leakage and Practical Mitigations
- arxiv url: http://arxiv.org/abs/2509.21497v1
- Date: Thu, 25 Sep 2025 19:56:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.961396
- Title: Functional Encryption in Secure Neural Network Training: Data Leakage and Practical Mitigations
- Title(参考訳): セキュアニューラルネットワークトレーニングにおける機能暗号化:データ漏洩と実践的軽減
- Authors: Alexandru Ioniţă, Andreea Ioniţă,
- Abstract要約: 本稿では,関数暗号化(FE)を用いて暗号化データのセキュアなトレーニングを行うニューラルネットワークに対する攻撃を提案する。
1つのアプローチは暗号化に頼ることなくセキュリティを保証するが、もう1つは関数を隠蔽する内部製品技術を使用する。
- 参考スコア(独自算出の注目度): 45.88028371034407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increased interest in artificial intelligence, Machine Learning as a Service provides the infrastructure in the Cloud for easy training, testing, and deploying models. However, these systems have a major privacy issue: uploading sensitive data to the Cloud, especially during training. Therefore, achieving secure Neural Network training has been on many researchers' minds lately. More and more solutions for this problem are built around a main pillar: Functional Encryption (FE). Although these approaches are very interesting and offer a new perspective on ML training over encrypted data, some vulnerabilities do not seem to be taken into consideration. In our paper, we present an attack on neural networks that uses FE for secure training over encrypted data. Our approach uses linear programming to reconstruct the original input, unveiling the previous security promises. To address the attack, we propose two solutions for secure training and inference that involve the client during the computation phase. One approach ensures security without relying on encryption, while the other uses function-hiding inner-product techniques.
- Abstract(参考訳): 人工知能への関心が高まり、機械学習・アズ・ア・サービス(Machine Learning as a Service)は、モデルのトレーニング、テスト、デプロイを容易にするクラウドのインフラストラクチャを提供する。
しかし、これらのシステムには、特にトレーニング中に機密データをクラウドにアップロードするという、大きなプライバシー上の問題がある。
そのため、近年、セキュアなニューラルネットワークトレーニングが多くの研究者の心に当てられている。
この問題に対する多くのソリューションが、主要な柱である関数暗号化(FE)を中心に構築されている。
これらのアプローチは非常に興味深いもので、暗号化データに対するMLトレーニングに関する新たな視点を提供するが、いくつかの脆弱性は考慮されていないようだ。
本稿では、FEを用いて暗号化されたデータに対するセキュアなトレーニングを行うニューラルネットワークに対する攻撃について述べる。
我々のアプローチは線形プログラミングを用いて元の入力を再構築し、以前のセキュリティの約束を公表する。
この攻撃に対処するため、計算フェーズ中にクライアントが関与するセキュアなトレーニングと推論のための2つのソリューションを提案する。
1つのアプローチは暗号化に頼ることなくセキュリティを保証するが、もう1つは関数を隠蔽する内部製品技術を使用する。
関連論文リスト
- A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーテッド・ラーニング(FL)は、医療におけるプライバシー保護機械学習にとって重要なアプローチである。
これらのシステムの現在のセキュリティ実装は、基本的なトレードオフに直面している。
我々は、選択的同型暗号化、差分プライバシー、ビットワイズスクランブルを戦略的に組み合わせて堅牢なセキュリティを実現する新しいアプローチであるFast and Secure Federated Learningを提示する。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - Privacy-Preserving Cyberattack Detection in Blockchain-Based IoT Systems Using AI and Homomorphic Encryption [22.82443900809095]
本研究では,ブロックチェーンベースのIoT(Internet-of-Things)システムを対象とした,プライバシ保護型サイバー攻撃検出フレームワークを提案する。
このアプローチでは、人工知能(AI)による検出モジュールをブロックチェーンノードに戦略的にデプロイし、リアルタイム攻撃を特定する。
プライバシーを保護するため、データは送信前に同型暗号化(HE)を用いて暗号化される。
シミュレーションの結果,提案手法は学習時間を軽減できるだけでなく,暗号化のない手法とほぼ同一な検出精度を約0.01%で達成できることがわかった。
論文 参考訳(メタデータ) (2024-12-18T05:46:53Z) - PriPHiT: Privacy-Preserving Hierarchical Training of Deep Neural Networks [44.0097014096626]
エッジデバイスとクラウドサーバの両方でディープラーニングモデルのトレーニングフェーズを実行する方法を提案する。
提案するプライバシ保存方法は,敵の早期出口を利用してエッジのセンシティブなコンテンツを抑制し,タスク関連情報をクラウドに送信する。
論文 参考訳(メタデータ) (2024-08-09T14:33:34Z) - Homomorphic Encryption-Enabled Federated Learning for Privacy-Preserving Intrusion Detection in Resource-Constrained IoV Networks [20.864048794953664]
本稿では,IoV(Internet-of-Vehicles)におけるフェデレーション学習(FL)ベースの侵入検知システム(IDS)におけるデータプライバシ問題に,限られた計算資源で対処する新しい枠組みを提案する。
まず,同相暗号を用いた高効率なフレームワークを提案し,処理に中央集中型サーバにオフロードを必要とするデータを保護する。
我々は、FLベースのシステムの課題を暗号化データで処理するための効果的なトレーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-07-26T04:19:37Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - Hierarchical Training of Deep Neural Networks Using Early Exiting [42.186536611404165]
深層ニューラルネットワークは、ビジョンタスクに最先端の精度を提供するが、トレーニングにはかなりのリソースを必要とする。
ディープニューラルネットワークは、データを取得するエッジデバイスから遠く離れたクラウドサーバでトレーニングされる。
本研究では,エッジワーカとクラウドワーカの分割アーキテクチャにおける早期出口を用いた,深層ニューラルネットワークの階層的学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-04T11:30:16Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - SoK: Privacy-preserving Deep Learning with Homomorphic Encryption [2.9069679115858755]
ホモモルフィック暗号化(HE)は、その内容を明らかにすることなく暗号化データ上で実行される。
プライバシ保護のために、ニューラルネットワークとHEを組み合わせたアプローチを詳細に検討します。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限といった,HEベースのプライバシ保護の深層学習には,数多くの課題がある。
論文 参考訳(メタデータ) (2021-12-23T22:03:27Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。