論文の概要: Rotation-Equivariant Neural Networks for Privacy Protection
- arxiv url: http://arxiv.org/abs/2006.13016v1
- Date: Sun, 21 Jun 2020 08:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 11:29:52.003106
- Title: Rotation-Equivariant Neural Networks for Privacy Protection
- Title(参考訳): プライバシー保護のための回転同変ニューラルネットワーク
- Authors: Hao Zhang, Yiting Chen, Haotian Ma, Xu Cheng, Qihan Ren, Liyao Xiang,
Jie Shi, Quanshi Zhang
- Abstract要約: 本稿では,従来のニューラルネットワークを回転同変ニューラルネットワーク(RENN)に書き換える手法を提案する。
RENNはd-aryベクトル/テンソルを特徴として使用し、各要素はd-ary数である。
RENNの出力精度は従来のニューラルネットワークと比較してわずかに低下するだけであり、計算コストは同型暗号よりも大幅に低い。
- 参考スコア(独自算出の注目度): 32.36906181825566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to prevent leaking input information from intermediate-layer
features, this paper proposes a method to revise the traditional neural network
into the rotation-equivariant neural network (RENN). Compared to the
traditional neural network, the RENN uses d-ary vectors/tensors as features, in
which each element is a d-ary number. These d-ary features can be rotated
(analogous to the rotation of a d-dimensional vector) with a random angle as
the encryption process. Input information is hidden in this target phase of
d-ary features for attribute obfuscation. Even if attackers have obtained
network parameters and intermediate-layer features, they cannot extract input
information without knowing the target phase. Hence, the input privacy can be
effectively protected by the RENN. Besides, the output accuracy of RENNs only
degrades mildly compared to traditional neural networks, and the computational
cost is significantly less than the homomorphic encryption.
- Abstract(参考訳): 本稿では,中間層特徴からの入力情報の漏洩を防止するため,従来のニューラルネットワークを回転同変ニューラルネットワーク(renn)に書き換える手法を提案する。
従来のニューラルネットワークと比較して、RENNはd-aryベクトル/テンソルを特徴として、各要素がd-ary数である。
これらのd-ary特徴は、暗号化プロセスとしてランダム角度で回転(d-dimensional vectorの回転と類似)することができる。
入力情報は、属性難読化のためのd-ary特徴のこのターゲットフェーズに隠される。
攻撃者がネットワークパラメータと中間層の特徴を得たとしても、ターゲットフェーズを知ることなく入力情報を抽出することはできない。
したがって、入力プライバシーは、RENNによって効果的に保護される。
さらに、RENNの出力精度は従来のニューラルネットワークと比較してわずかに低下するだけであり、計算コストは同型暗号よりも大幅に低い。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [56.04573160453392]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural
Networks [5.274804664403783]
スパイキングニューラルネットワーク(SNN)は人間の脳の振る舞いを模倣し、効率を改善しエネルギー消費を減らす。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
この研究では、Brakerski/Fan-Vercauteren(BFV)暗号化スキームを用いて、従来のディープニューラルネットワーク(DNN)とSNNを比較した。
論文 参考訳(メタデータ) (2023-08-10T15:26:35Z) - Learning Ability of Interpolating Deep Convolutional Neural Networks [28.437011792990347]
我々は,深層ニューラルネットワーク,深層畳み込みニューラルネットワーク(DCNN)の重要なファミリーの学習能力について検討する。
非補間DCNNに適切に定義された層を追加することで、非補間DCNNの良好な学習率を維持する補間DCNNが得られることを示す。
我々の研究は、過度に適合したDCNNの一般化の理論的検証を提供する。
論文 参考訳(メタデータ) (2022-10-25T17:22:31Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - RED++ : Data-Free Pruning of Deep Neural Networks via Input Splitting
and Output Merging [36.027765880474526]
Pruning Deep Neural Networks (DNN) は、推論ランタイムアクセラレーションの目標において、顕著な研究分野である。
本稿では,新しいデータフリープルーニングプロトコルRED++を紹介する。
ハッシュによる精度の保存に関する理論的および実証的な保証について検討する。
論文 参考訳(メタデータ) (2021-09-30T09:31:11Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Scientific Calculator for Designing Trojan Detectors in Neural Networks [3.575776176747487]
本研究は、NNモデルに埋め込まれたトロイの木馬を検出するために、Webベースのインタラクティブニューラルネットワーク(NN)計算機とNN測定の非効率性を提示する。
トレーニングデータセットやNNアーキテクチャで実行される分析、可視化、出力操作を備えた「科学計算器の様」である。
論文 参考訳(メタデータ) (2020-06-05T21:54:07Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Deep Quaternion Features for Privacy Protection [34.19581897218083]
第四次評価ニューラルネットワーク(QNN)を構築するためにニューラルネットワークを改訂する手法を提案する。
QNNは入力情報を四元数値の特徴のランダムな位相に隠す。
QNNの出力精度は従来のニューラルネットワークと比較してわずかに低下する。
論文 参考訳(メタデータ) (2020-03-18T17:38:24Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。