論文の概要: Bi-CryptoNets: Leveraging Different-Level Privacy for Encrypted
Inference
- arxiv url: http://arxiv.org/abs/2402.01296v1
- Date: Fri, 2 Feb 2024 10:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 15:50:16.756286
- Title: Bi-CryptoNets: Leveraging Different-Level Privacy for Encrypted
Inference
- Title(参考訳): bi-cryptonets: 暗号化推論に異なるレベルのプライバシーを活用する
- Authors: Man-Jie Yuan, Zheng Zou, Wei Gao
- Abstract要約: 入力データを重要度とプライバシーに応じてセンシティブで非センシティブなセグメントに分解する。
センシティブなセグメントは、人間の顔のような重要でプライベートな情報を含んでいる。
セキュリティを維持するために、強い同型暗号化を採用していますが、不感な暗号化には背景がいくつか含まれており、摂動が追加されています。
- 参考スコア(独自算出の注目度): 4.754973569457509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-preserving neural networks have attracted increasing attention in
recent years, and various algorithms have been developed to keep the balance
between accuracy, computational complexity and information security from the
cryptographic view. This work takes a different view from the input data and
structure of neural networks. We decompose the input data (e.g., some images)
into sensitive and insensitive segments according to importance and privacy.
The sensitive segment includes some important and private information such as
human faces and we take strong homomorphic encryption to keep security, whereas
the insensitive one contains some background and we add perturbations. We
propose the bi-CryptoNets, i.e., plaintext and ciphertext branches, to deal
with two segments, respectively, and ciphertext branch could utilize the
information from plaintext branch by unidirectional connections. We adopt
knowledge distillation for our bi-CryptoNets by transferring representations
from a well-trained teacher neural network. Empirical studies show the
effectiveness and decrease of inference latency for our bi-CryptoNets.
- Abstract(参考訳): 近年,プライバシ保全型ニューラルネットワークが注目され,暗号的視点から精度,計算複雑性,情報セキュリティのバランスを保ちながら様々なアルゴリズムが開発されている。
この研究は、ニューラルネットワークの入力データや構造とは異なる見方を取る。
入力データ(例えば、いくつかの画像)を重要度とプライバシーに応じてセンシティブで不感なセグメントに分解する。
センシティブセグメントには、人間の顔などの重要なプライベート情報が含まれており、セキュリティを維持するために強力な同型暗号化を採用しています。
本稿では,平文分岐と暗号文分岐の2つのセグメントをそれぞれ扱うバイクリプトネットを提案し,一方向接続により平文分岐からの情報を利用することができる。
我々は、教師ニューラルネットワークから表現を転送することにより、bi-cryptonetsに知識蒸留を導入する。
実証研究は、我々のバイクリプトネットにおける推論遅延の有効性と減少を示す。
関連論文リスト
- Neural Networks Meet Elliptic Curve Cryptography: A Novel Approach to Secure Communication [0.8399688944263844]
提案手法では,ニューラルネットワークフレームワークにおける非対称暗号の適用について検討する。
盗聴の試みに対する通信セキュリティの有効性と堅牢性を調べるために、5つの異なる暗号鍵を用いている。
論文 参考訳(メタデータ) (2024-07-11T19:34:16Z) - Deep Internal Learning: Deep Learning from a Single Input [88.59966585422914]
多くの場合、手元にある入力からネットワークをトレーニングする価値がある。
これは、トレーニングデータが少なく、多様性が大きい多くの信号および画像処理問題に特に関係している。
本研究の目的は,この2つの重要な方向に向けて,過去数年間に提案されてきた深層学習技術について報告することである。
論文 参考訳(メタデータ) (2023-12-12T16:48:53Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Deep Neural Networks for Encrypted Inference with TFHE [0.0]
完全同型暗号(英: Fully homomorphic encryption, FHE)は、復号化せずに暗号化されたデータ上で計算を行うことができる暗号法である。
TFHEは、健康データ、バイオメトリックス、クレジットスコア、その他の個人情報などの機密データを扱うオンラインサービスのユーザのプライバシを保存する。
本稿では、任意の深度計算回路を実現するFHEスキームであるTFHEの制約に適合するディープニューラルネットワーク(DNN)を構築する方法について述べる。
論文 参考訳(メタデータ) (2023-02-13T09:53:31Z) - Application of Data Encryption in Chinese Named Entity Recognition [11.084360853065736]
本稿では,機密データの漏洩や不便な開示といった問題に対処する暗号学習フレームワークを提案する。
名前付きエンティティ認識タスクにおいて、トレーニングデータを初めて暗号化するために、複数の暗号化アルゴリズムを導入する。
実験結果から, 暗号化手法は良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-08-31T04:20:37Z) - SoK: Privacy-preserving Deep Learning with Homomorphic Encryption [2.9069679115858755]
ホモモルフィック暗号化(HE)は、その内容を明らかにすることなく暗号化データ上で実行される。
プライバシ保護のために、ニューラルネットワークとHEを組み合わせたアプローチを詳細に検討します。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限といった,HEベースのプライバシ保護の深層学習には,数多くの課題がある。
論文 参考訳(メタデータ) (2021-12-23T22:03:27Z) - EDLaaS; Fully Homomorphic Encryption Over Neural Network Graphs [7.195443855063635]
我々は、Microsoft Simple Encrypted Arithmetic Library (MS-SEAL)が提供する固定点上の第4世代Cheon, Kim, Kim and Song (CKKS) FHEスキームを使用する。
FHEは、プライバシ保護機械学習(PPML)のすべての問題に対するパナセアではなく、モデルトレーニングのような特定の制限がまだ残っていることが分かっています。
我々は、畳み込みニューラルネットワーク(CNN)、ファッションMNIST、およびレベル付きFHE操作に焦点を当てる。
論文 参考訳(メタデータ) (2021-10-26T12:43:35Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Privacy-Preserving Image Acquisition Using Trainable Optical Kernel [50.1239616836174]
本稿では、画像センサに到達する前に、光学領域の感度の高い識別情報を除去する訓練可能な画像取得手法を提案する。
イメージセンサに到達する前に、センシティブなコンテンツが抑制されるため、デジタルドメインには入らないため、いかなる種類のプライバシー攻撃でも検索できない。
論文 参考訳(メタデータ) (2021-06-28T11:08:14Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。