論文の概要: Fighting COVID-19 in the Dark: Methodology for Improved Inference Using
Homomorphically Encrypted DNN
- arxiv url: http://arxiv.org/abs/2111.03362v1
- Date: Fri, 5 Nov 2021 10:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 20:35:21.237897
- Title: Fighting COVID-19 in the Dark: Methodology for Improved Inference Using
Homomorphically Encrypted DNN
- Title(参考訳): 暗黒でのCOVID-19対策--同型暗号化DNNを用いた推論改善手法
- Authors: Moran Baruch, Lev Greenberg and Guy Moshkowich
- Abstract要約: ホモモルフィック暗号化(HE)は、プライバシー問題に対処しながら分析を可能にする方法として使われている。
HEの使用には、サイズ制限やいくつかの操作タイプのサポートの欠如など、いくつかの課題がある。
本稿では,ReLUを2次活性化に置き換える構造的手法を提案する。
- 参考スコア(独自算出の注目度): 3.1959970303072396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-preserving deep neural network (DNN) inference is a necessity in
different regulated industries such as healthcare, finance, and retail.
Recently, homomorphic encryption (HE) has been used as a method to enable
analytics while addressing privacy concerns. HE enables secure predictions over
encrypted data. However, there are several challenges related to the use of HE,
including DNN size limitations and the lack of support for some operation
types. Most notably, the commonly used ReLU activation is not supported under
some HE schemes. We propose a structured methodology to replace ReLU with a
quadratic polynomial activation. To address the accuracy degradation issue, we
use a pre-trained model that trains another HE-friendly model, using techniques
such as "trainable activation" functions and knowledge distillation. We
demonstrate our methodology on the AlexNet architecture, using the chest X-Ray
and CT datasets for COVID-19 detection. Our experiments show that by using our
approach, the gap between the F1 score and accuracy of the models trained with
ReLU and the HE-friendly model is narrowed down to within a mere 1.1 - 5.3
percent degradation.
- Abstract(参考訳): プライバシ保存型ディープニューラルネットワーク(DNN)推論は、医療、金融、小売など、さまざまな規制された業界で必須である。
近年,準同型暗号(he)は,プライバシの懸念に対処しつつ分析を可能にする手段として利用されている。
HEは暗号化データに対するセキュアな予測を可能にする。
しかし、DNNサイズ制限やいくつかの操作タイプのサポートの欠如など、HEの使用に関するいくつかの課題がある。
特によく使われるReLUアクティベーションはHE方式ではサポートされない。
本稿では,reluを二次多項式アクティベーションに置き換える構造化手法を提案する。
精度低下問題に対処するために,「訓練可能アクティベーション」機能や知識蒸留といった手法を用いて,他のheフレンドリーなモデルを訓練する事前学習モデルを用いる。
我々は、胸部x線およびctデータセットを用いて、alexnetアーキテクチャに関する方法論を実証する。
実験の結果,本手法では,reluで学習したモデルのf1得点と精度の差を1.1~5.3%程度まで狭めることができた。
関連論文リスト
- Augmented Neural Fine-Tuning for Efficient Backdoor Purification [16.74156528484354]
最近の研究では、様々なバックドア攻撃に対するディープニューラルネットワーク(DNN)の脆弱性が明らかにされている。
神経活動の最適再編成を目的としたニューラルマスクファインチューニング(NFT)を提案する。
NFTはトリガー合成プロセスを緩和し、逆探索モジュールの要求をなくす。
論文 参考訳(メタデータ) (2024-07-14T02:36:54Z) - Protecting Deep Learning Model Copyrights with Adversarial Example-Free Reuse Detection [5.72647692625489]
ディープニューラルネットワーク(DNN)の再利用と複製は、モデル所有者に著作権侵害と経済的損失をもたらす可能性がある。
既存のホワイトボックステストベースのアプローチは、モデルアーキテクチャが変更される一般的な異種再利用ケースに対処できない。
神経機能解析に基づく再利用検出装置であるNFARDを提案する。
論文 参考訳(メタデータ) (2024-07-04T12:21:59Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - Privacy Preserving Federated Learning with Convolutional Variational
Bottlenecks [2.1301560294088318]
近年,変分モデルに基づくPRECODE(PRivacy EnhanCing mODulE)を導入して,モデルユーティリティを損なうことなく勾配漏れを防止する手法が提案されている。
ニューラルネットワークにおけるPreCODEとそれに続く階層の勾配に変動モデルが導入されたことを示す。
攻撃最適化時の勾配勾配を意図的に省略することにより、PreCODEのプライバシー保護効果を無効にする攻撃を定式化する。
論文 参考訳(メタデータ) (2023-09-08T16:23:25Z) - Training Large Scale Polynomial CNNs for E2E Inference over Homomorphic
Encryption [33.35896071292604]
推論中に同型暗号化(HE)で実行できる大規模なCNNのトレーニングは難しい。
本稿ではResNet-152やConvNeXtモデルのような大規模CNNのための新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-26T20:41:37Z) - Towards Practical Control of Singular Values of Convolutional Layers [65.25070864775793]
畳み込みニューラルネットワーク(CNN)の訓練は容易であるが、一般化誤差や対向ロバスト性といった基本的な特性は制御が難しい。
最近の研究では、畳み込み層の特異値がそのような解像特性に顕著に影響を及ぼすことが示された。
我々は,レイヤ表現力の著しく低下を犠牲にして,先行技術の制約を緩和するための原則的アプローチを提供する。
論文 参考訳(メタデータ) (2022-11-24T19:09:44Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Is Neuron Coverage Needed to Make Person Detection More Robust? [3.395452700023097]
本研究では,混み合った場面における人物検出の課題に対して,CGT(Comported-Guided Testing)を適用した。
提案したパイプラインは、人検出にYOLOv3を使用し、サンプリングと突然変異によるバグの発見を含む。
調査対象の指標が強靭性向上に有効であることを示す証拠は見出されていない。
論文 参考訳(メタデータ) (2022-04-21T11:23:33Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。