論文の概要: Privacy-Preserving 3-Layer Neural Network Training using Mere
Homomorphic Encryption Technique
- arxiv url: http://arxiv.org/abs/2308.09531v1
- Date: Fri, 18 Aug 2023 13:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 13:07:30.257890
- Title: Privacy-Preserving 3-Layer Neural Network Training using Mere
Homomorphic Encryption Technique
- Title(参考訳): 正則暗号を用いたプライバシー保護型3層ニューラルネットワークトレーニング
- Authors: John Chiang
- Abstract要約: ニューラルネットワークのプライバシ保護トレーニングの問題点を,ただの同型暗号設定で検討する。
利用可能ないくつかの拡張テクニックを組み合わせて、いくつかの拡張を行い、最終的に回帰と分類の両問題に対する3層ニューラルネットワークのトレーニングを可能にします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this manuscript, we consider the problem of privacy-preserving training of
neural networks in the mere homomorphic encryption setting. We combine several
exsiting techniques available, extend some of them, and finally enable the
training of 3-layer neural networks for both the regression and classification
problems using mere homomorphic encryption technique.
- Abstract(参考訳): 本稿では,ニューラルネットワークのプライバシ保護トレーニングの問題点を,ただの同型暗号設定で考察する。
我々は、利用可能ないくつかの拡張技術を組み合わせて、それらを拡張し、最終的に、ただの同型暗号技術を用いて回帰と分類の問題を3層ニューラルネットワークのトレーニングを可能にする。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Differentially Private Neural Network Training under Hidden State Assumption [2.3371504588528635]
隠れ状態前提下でのプライバシー保証を保証可能なニューラルネットワークに対する差分プライベートニューラルネットワーク座標降下(DP-SBCD)と呼ばれる新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-11T07:14:40Z) - Compositional Curvature Bounds for Deep Neural Networks [7.373617024876726]
安全クリティカルなアプリケーションにおけるニューラルネットワークの普及を脅かす重要な課題は、敵の攻撃に対する脆弱性である。
本研究では, 連続的に微分可能な深層ニューラルネットワークの2次挙動について検討し, 対向摂動に対する堅牢性に着目した。
ニューラルネットワークの第2微分の証明可能な上界を解析的に計算する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-07T17:50:15Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Robust Localization of Key Fob Using Channel Impulse Response of Ultra
Wide Band Sensors for Keyless Entry Systems [12.313730356985019]
キーレス入力のセキュリティ機能として、車内および周囲のキーフォブのローカライズにニューラルネットワークを使用することは、急速に進んでいる。
モデルの性能は, 高速勾配法では, 一定の範囲で67%向上し, 基本反復法では37%, 投射勾配法では37%向上した。
論文 参考訳(メタデータ) (2024-01-16T22:35:14Z) - Taming Binarized Neural Networks and Mixed-Integer Programs [2.7624021966289596]
バイナライズされたニューラルネットワークはテーム表現を許容することを示す。
これにより、Bolte et al. のフレームワークを暗黙の微分に使用できる。
このアプローチは、より広範な混合整数プログラムのクラスにも使用することができる。
論文 参考訳(メタデータ) (2023-10-05T21:04:16Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Feature Alignment for Approximated Reversibility in Neural Networks [0.0]
本稿では,ニューラルネットワークにおける近似可逆性を得る手法である特徴アライメントを導入する。
ニューラルネットワークをローカルにトレーニングし、計算メモリリソースを節約するために、このテクニックを修正できることが示される。
論文 参考訳(メタデータ) (2021-06-23T17:42:47Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。