論文の概要: Color-NeuraCrypt: Privacy-Preserving Color-Image Classification Using
Extended Random Neural Networks
- arxiv url: http://arxiv.org/abs/2301.04875v1
- Date: Thu, 12 Jan 2023 08:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 15:13:02.331086
- Title: Color-NeuraCrypt: Privacy-Preserving Color-Image Classification Using
Extended Random Neural Networks
- Title(参考訳): Color-NeuraCrypt:拡張ランダムニューラルネットワークを用いたプライバシー保護カラー画像分類
- Authors: Zheng Qi, AprilPyone MaungMaung, Hitoshi Kiya
- Abstract要約: そこで本研究では,カラーNeuraCryptの分類精度をオリジナルと他のプライバシ保護手法より向上させる手法を提案する。
実験結果から,提案したColor-NeuraCryptは,従来のものと他のプライバシ保護手法よりも優れた分類精度が得られることがわかった。
- 参考スコア(独自算出の注目度): 13.890279045382623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, with the development of cloud computing platforms,
privacy-preserving methods for deep learning have become an urgent problem.
NeuraCrypt is a private random neural network for privacy-preserving that
allows data owners to encrypt the medical data before the data uploading, and
data owners can train and then test their models in a cloud server with the
encrypted data directly. However, we point out that the performance of
NeuraCrypt is heavily degraded when using color images. In this paper, we
propose a Color-NeuraCrypt to solve this problem. Experiment results show that
our proposed Color-NeuraCrypt can achieve a better classification accuracy than
the original one and other privacy-preserving methods.
- Abstract(参考訳): 近年,クラウドコンピューティングプラットフォームの発展に伴い,ディープラーニングのためのプライバシ保護手法が緊急問題となっている。
NeuraCryptはプライバシ保護のためのプライベートなランダムニューラルネットワークで、データアップロード前にデータ所有者が医療データを暗号化し、データ所有者は、暗号化されたデータを直接クラウドサーバでトレーニングし、テストすることができる。
しかし,カラー画像を用いた場合,NeuraCryptの性能は著しく劣化している。
本稿では,この問題を解決するためのカラーニューラクリプトを提案する。
実験結果から,提案したColor-NeuraCryptは,従来のものと他のプライバシ保護手法よりも優れた分類精度が得られることがわかった。
関連論文リスト
- AnonyNoise: Anonymizing Event Data with Smart Noise to Outsmart Re-Identification and Preserve Privacy [12.130336423803328]
イベントカメラは、人間の解釈が困難で出力が希少であるため、当初は有望な解決策と考えられていた。
近年のディープラーニングの進歩は、ニューラルネットワークが高品質なグレースケールのイメージを再構築し、イベントカメラのデータを使って個人を再識別できることを証明している。
本稿では,人間だけでなくニューラルネットワークによる再同定を防止するための,最初のイベント匿名化パイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-25T14:43:03Z) - Recoverable Privacy-Preserving Image Classification through Noise-like
Adversarial Examples [26.026171363346975]
分類などのクラウドベースの画像関連サービスが重要になっている。
本研究では,新しいプライバシー保護画像分類手法を提案する。
暗号化された画像は、秘密鍵を使用して、高い忠実度(保存可能な)で元の形式に復号することができる。
論文 参考訳(メタデータ) (2023-10-19T13:01:58Z) - Learning in the Dark: Privacy-Preserving Machine Learning using Function Approximation [1.8907108368038215]
Learning in the Darkは、暗号化された画像を高精度に分類できる、プライバシ保護機械学習モデルである。
暗号化データ上で直接計算を行うことで、高精度な予測を行うことができる。
論文 参考訳(メタデータ) (2023-09-15T06:45:58Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - Hiding Data in Colors: Secure and Lossless Deep Image Steganography via
Conditional Invertible Neural Networks [20.81947232336795]
既存のディープイメージステガノグラフィー手法は、コンテナイメージのホストイメージに対する視覚的類似性のみを考慮し、コンテナイメージの統計的セキュリティ(ステガノグラフィー)を無視する。
画像に任意の型でデータを埋め込むディープ・イメージ・ステガノグラフィー(deep image steganography)を提案する。
論文 参考訳(メタデータ) (2022-01-19T07:09:36Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - Sphynx: ReLU-Efficient Network Design for Private Inference [49.73927340643812]
そこでは、サービスプロバイダのモデルを使用して、ユーザのデータサンプルに対する推論を実行することを目標としています。
ディープネットワークのための既存のPIメソッドは、機能低下の少ない暗号的にセキュアな推論を可能にする。
本稿では,畳み込みセル設計のためのマイクロサーチ手法に基づくReLU効率の高いネットワーク設計手法であるSphynxを提案する。
論文 参考訳(メタデータ) (2021-06-17T18:11:10Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。