論文の概要: Quantum-secure multiparty deep learning
- arxiv url: http://arxiv.org/abs/2408.05629v2
- Date: Fri, 13 Sep 2024 10:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 22:38:12.946259
- Title: Quantum-secure multiparty deep learning
- Title(参考訳): 量子セキュア多人数ディープラーニング
- Authors: Kfir Sulimany, Sri Krishna Vadlamani, Ryan Hamerly, Prahlad Iyengar, Dirk Englund,
- Abstract要約: 我々は,光の量子的性質を利用した線形代数エンジンを,情報理論的に安全なマルチパーティ計算に導入する。
このエンジンをディープラーニングに適用し、ディープニューラルネットワーク重みとクライアントのデータの両方の情報漏洩に関する厳密な上限を導出する。
我々の研究は、実用的な量子セキュアな計算の基礎を築き、セキュアなクラウド深層学習をフィールドとして解き放ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Secure multiparty computation enables the joint evaluation of multivariate functions across distributed users while ensuring the privacy of their local inputs. This field has become increasingly urgent due to the exploding demand for computationally intensive deep learning inference. These computations are typically offloaded to cloud computing servers, leading to vulnerabilities that can compromise the security of the clients' data. To solve this problem, we introduce a linear algebra engine that leverages the quantum nature of light for information-theoretically secure multiparty computation using only conventional telecommunication components. We apply this linear algebra engine to deep learning and derive rigorous upper bounds on the information leakage of both the deep neural network weights and the client's data via the Holevo and the Cram\'er-Rao bounds, respectively. Applied to the MNIST classification task, we obtain test accuracies exceeding $96\%$ while leaking less than $0.1$ bits per weight symbol and $0.01$ bits per data symbol. This weight leakage is an order of magnitude below the minimum bit precision required for accurate deep learning using state-of-the-art quantization techniques. Our work lays the foundation for practical quantum-secure computation and unlocks secure cloud deep learning as a field.
- Abstract(参考訳): セキュアなマルチパーティ計算により、ローカル入力のプライバシを確保しつつ、分散ユーザ間での多変量関数の同時評価が可能になる。
この分野は、計算集約的なディープラーニング推論の爆発的な需要により、ますます緊急になっている。
これらの計算は通常、クラウドコンピューティングサーバーにオフロードされ、クライアントデータのセキュリティを損なう可能性のある脆弱性につながる。
この問題を解決するために,従来の通信部品のみを用いた情報理論的にセキュアな多要素計算に光の量子的性質を活用する線形代数エンジンを導入する。
本稿では、この線形代数エンジンをディープラーニングに適用し、深層ニューラルネットワーク重みとクライアントのデータの両方の情報漏洩に関する厳密な上限をホレボおよびクラム・ラーオ境界を介して導出する。
MNIST分類タスクに適用すると,データシンボルあたり0.1$ビット未満,データシンボルあたり0.01$ビット未満の精度で96\%以上の精度が得られる。
このウェイトリークは、最先端の量子化技術を用いて正確な深層学習に必要な最小ビット精度よりも桁違いに小さい。
我々の研究は、実用的な量子セキュアな計算の基礎を築き、セキュアなクラウド深層学習をフィールドとして解き放ちます。
関連論文リスト
- Training quantum machine learning models on cloud without uploading the data [0.0]
本稿では,入力データを符号化する前にパラメータ化量子回路を動作させる手法を提案する。
これにより、データセット所有者は、量子クラウドプラットフォーム上で機械学習モデルをトレーニングすることができる。
また、後に古典的な計算を用いて大量のデータを効果的に符号化することも可能である。
論文 参考訳(メタデータ) (2024-09-06T20:14:52Z) - NeuroPlug: Plugging Side-Channel Leaks in NPUs using Space Filling Curves [0.4143603294943439]
全ての公表された対策(CM)は、信号XにノイズNを付加する。
本研究では,このノイズを,対象の計測値,統計的解析値,様々な種類の推定側情報を用いて除去することが容易であることを示す。
我々はこれらの攻撃手法に免疫を持つ新しいCM NeuroPlugを提案する。
論文 参考訳(メタデータ) (2024-07-18T10:40:41Z) - Fast Flux-Activated Leakage Reduction for Superconducting Quantum
Circuits [84.60542868688235]
量子ビット実装のマルチレベル構造から生じる計算部分空間から漏れること。
パラメトリックフラックス変調を用いた超伝導量子ビットの資源効率向上のためのユニバーサルリーク低減ユニットを提案する。
繰り返し重み付け安定化器測定におけるリーク低減ユニットの使用により,検出されたエラーの総数を,スケーラブルな方法で削減できることを実証した。
論文 参考訳(メタデータ) (2023-09-13T16:21:32Z) - Training quantum neural networks using the Quantum Information
Bottleneck method [0.6768558752130311]
ネットワークを介して伝達される特性に関する関連情報を最大化するために、量子ニューラルネットワークを訓練する具体的な方法を提案する。
これは、入力と出力が完全に量子である問題に対してオートエンコーダを訓練する際に最適化するために、運用的に確立された量を与えるためである。
論文 参考訳(メタデータ) (2022-12-05T21:11:32Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - Communication-efficient Quantum Algorithm for Distributed Machine
Learning [14.546892420890943]
我々の量子アルゴリズムは、通信複雑性が$O(fraclog_2(N)epsilon)$で、$N$はデータポイントの数、$epsilon$はパラメータエラーのバウンドである。
分散内積とハミング距離を量子加速度で推定するアルゴリズムの構築ブロックは、分散機械学習の様々なタスクにさらに適用でき、通信を高速化できる。
論文 参考訳(メタデータ) (2022-09-11T15:03:58Z) - Quantum Heterogeneous Distributed Deep Learning Architectures: Models,
Discussions, and Applications [13.241451755566365]
量子深層学習(QDL)と分散深層学習(DDL)は、既存の深層学習を補完するために出現している。
QDLは、ローカルデバイスやサーバ上のディープラーニング計算を量子ディープラーニングに置き換えることで、計算上の利益を得る。
サーバとクライアント間の量子セキュアな通信プロトコルを使用することで、データセキュリティを向上させることができる。
論文 参考訳(メタデータ) (2022-02-19T12:59:11Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Statistical Limits of Supervised Quantum Learning [90.0289160657379]
精度の制約を考慮すると、教師付き学習のための量子機械学習アルゴリズムは入力次元における多対数ランタイムを達成できないことを示す。
より効率的な古典的アルゴリズムよりも、教師あり学習のための量子機械学習アルゴリズムの方が、ほとんどの場合スピードアップできると結論付けている。
論文 参考訳(メタデータ) (2020-01-28T17:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。