論文の概要: Rotation-Equivariant Neural Networks for Privacy Protection
- arxiv url: http://arxiv.org/abs/2006.13016v1
- Date: Sun, 21 Jun 2020 08:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 11:29:52.003106
- Title: Rotation-Equivariant Neural Networks for Privacy Protection
- Title(参考訳): プライバシー保護のための回転同変ニューラルネットワーク
- Authors: Hao Zhang, Yiting Chen, Haotian Ma, Xu Cheng, Qihan Ren, Liyao Xiang,
Jie Shi, Quanshi Zhang
- Abstract要約: 本稿では,従来のニューラルネットワークを回転同変ニューラルネットワーク(RENN)に書き換える手法を提案する。
RENNはd-aryベクトル/テンソルを特徴として使用し、各要素はd-ary数である。
RENNの出力精度は従来のニューラルネットワークと比較してわずかに低下するだけであり、計算コストは同型暗号よりも大幅に低い。
- 参考スコア(独自算出の注目度): 32.36906181825566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to prevent leaking input information from intermediate-layer
features, this paper proposes a method to revise the traditional neural network
into the rotation-equivariant neural network (RENN). Compared to the
traditional neural network, the RENN uses d-ary vectors/tensors as features, in
which each element is a d-ary number. These d-ary features can be rotated
(analogous to the rotation of a d-dimensional vector) with a random angle as
the encryption process. Input information is hidden in this target phase of
d-ary features for attribute obfuscation. Even if attackers have obtained
network parameters and intermediate-layer features, they cannot extract input
information without knowing the target phase. Hence, the input privacy can be
effectively protected by the RENN. Besides, the output accuracy of RENNs only
degrades mildly compared to traditional neural networks, and the computational
cost is significantly less than the homomorphic encryption.
- Abstract(参考訳): 本稿では,中間層特徴からの入力情報の漏洩を防止するため,従来のニューラルネットワークを回転同変ニューラルネットワーク(renn)に書き換える手法を提案する。
従来のニューラルネットワークと比較して、RENNはd-aryベクトル/テンソルを特徴として、各要素がd-ary数である。
これらのd-ary特徴は、暗号化プロセスとしてランダム角度で回転(d-dimensional vectorの回転と類似)することができる。
入力情報は、属性難読化のためのd-ary特徴のこのターゲットフェーズに隠される。
攻撃者がネットワークパラメータと中間層の特徴を得たとしても、ターゲットフェーズを知ることなく入力情報を抽出することはできない。
したがって、入力プライバシーは、RENNによって効果的に保護される。
さらに、RENNの出力精度は従来のニューラルネットワークと比較してわずかに低下するだけであり、計算コストは同型暗号よりも大幅に低い。
関連論文リスト
- Residual Random Neural Networks [0.0]
ランダムな重みを持つ単層フィードフォワードニューラルネットワークは、ニューラルネットワークの文献の中で繰り返されるモチーフである。
隠れたニューロンの数がデータサンプルの次元と等しくない場合でも,優れた分類結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:00:11Z) - NIDS Neural Networks Using Sliding Time Window Data Processing with Trainable Activations and its Generalization Capability [0.0]
本稿では,ネットワーク侵入検知システム(NIDS)のためのニューラルネットワークについて述べる。
ディープパケットインスペクションに頼らず、ほとんどのNIDSデータセットで見つからず、従来のフローコレクタから簡単に取得できる11の機能しか必要としない。
報告されたトレーニング精度は、提案手法の99%を超え、ニューラルネットワークの入力特性は20に満たない。
論文 参考訳(メタデータ) (2024-10-24T11:36:19Z) - Recurrent Neural Networks Learn to Store and Generate Sequences using Non-Linear Representations [54.17275171325324]
線形表現仮説(LRH)に対する反例を提示する。
入力トークンシーケンスを繰り返すように訓練されると、ニューラルネットワークは、方向ではなく、特定の順序で各位置のトークンを表現することを学ぶ。
これらの結果は、解釈可能性の研究はLRHに限定されるべきでないことを強く示唆している。
論文 参考訳(メタデータ) (2024-08-20T15:04:37Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Use of Parallel Explanatory Models to Enhance Transparency of Neural Network Configurations for Cell Degradation Detection [18.214293024118145]
我々は,ニューラルネットワークの内部動作を照らし,理解するための並列モデルを構築している。
RNNの各層が入力分布を変換して検出精度を高める方法を示す。
同時に、精度の向上を制限するために作用する副作用も発見する。
論文 参考訳(メタデータ) (2024-04-17T12:22:54Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - RED++ : Data-Free Pruning of Deep Neural Networks via Input Splitting
and Output Merging [36.027765880474526]
Pruning Deep Neural Networks (DNN) は、推論ランタイムアクセラレーションの目標において、顕著な研究分野である。
本稿では,新しいデータフリープルーニングプロトコルRED++を紹介する。
ハッシュによる精度の保存に関する理論的および実証的な保証について検討する。
論文 参考訳(メタデータ) (2021-09-30T09:31:11Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Deep Quaternion Features for Privacy Protection [34.19581897218083]
第四次評価ニューラルネットワーク(QNN)を構築するためにニューラルネットワークを改訂する手法を提案する。
QNNは入力情報を四元数値の特徴のランダムな位相に隠す。
QNNの出力精度は従来のニューラルネットワークと比較してわずかに低下する。
論文 参考訳(メタデータ) (2020-03-18T17:38:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。