論文の概要: Privacy-Preserving Encrypted Low-Dose CT Denoising
- arxiv url: http://arxiv.org/abs/2310.09101v1
- Date: Fri, 13 Oct 2023 13:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 13:01:57.170506
- Title: Privacy-Preserving Encrypted Low-Dose CT Denoising
- Title(参考訳): 低線量CTのプライバシー保護
- Authors: Ziyuan Yang, Huijie Huangfu, Maosong Ran, Zhiwen Wang, Hui Yu, Yi
Zhang
- Abstract要約: 最近のトレンドは、大量の自己コンパイルされたプライベートデータを持つ強力なモデルをトレーニングするサーバーだ。
モデルリークを避けるため、ユーザはデータをサーバモデルにアップロードする必要がある。
プライバシー保護クラウドサービスを実現するために,LDCTを直接暗号化ドメインに記述することを提案する。
- 参考スコア(独自算出の注目度): 9.087708214721253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) has made significant advancements in tomographic imaging,
particularly in low-dose computed tomography (LDCT) denoising. A recent trend
involves servers training powerful models with large amounts of self-collected
private data and providing application programming interfaces (APIs) for users,
such as Chat-GPT. To avoid model leakage, users are required to upload their
data to the server model, but this way raises public concerns about the
potential risk of privacy disclosure, especially for medical data. Hence, to
alleviate related concerns, in this paper, we propose to directly denoise LDCT
in the encrypted domain to achieve privacy-preserving cloud services without
exposing private data to the server. To this end, we employ homomorphic
encryption to encrypt private LDCT data, which is then transferred to the
server model trained with plaintext LDCT for further denoising. However, since
traditional operations, such as convolution and linear transformation, in DL
methods cannot be directly used in the encrypted domain, we transform the
fundamental mathematic operations in the plaintext domain into the operations
in the encrypted domain. In addition, we present two interactive frameworks for
linear and nonlinear models in this paper, both of which can achieve lossless
operating. In this way, the proposed methods can achieve two merits, the data
privacy is well protected and the server model is free from the risk of model
leakage. Moreover, we provide theoretical proof to validate the lossless
property of our framework. Finally, experiments were conducted to demonstrate
that the transferred contents are well protected and cannot be reconstructed.
The code will be released once the paper is accepted.
- Abstract(参考訳): ディープラーニング(DL)は,特に低用量CT(LDCT)デノナイジングにおいて,断層撮影において顕著な進歩を遂げている。
最近のトレンドは、サーバが大量の自己収集したプライベートデータを使って強力なモデルをトレーニングし、chat-gptのようなユーザのためのアプリケーションプログラミングインターフェース(api)を提供する。
モデルリークを避けるために、ユーザは自分のデータをサーバモデルにアップロードする必要があるが、この方法ではプライバシー開示の潜在的なリスク、特に医療データに対する懸念が高まる。
そこで,本論文では,プライバシー保護クラウドサービスを実現するために,サーバにプライベートデータを公開せずにLDCTを直接解読することを提案する。
この目的のために,同型暗号を用いてプライベートLDCTデータを暗号化し,そのデータをプレーンテキストLDCTで訓練したサーバモデルに転送し,さらなる復調を行う。
しかし, 畳み込みや線形変換といった従来の操作では, DLメソッドは暗号化ドメインでは直接利用できないため, 平文領域の基本的な数学的操作を暗号化ドメインの操作に変換する。
さらに,本論文では線形モデルと非線形モデルのための2つの対話型フレームワークについて述べる。
このようにして提案手法は,データプライバシが保護され,サーバモデルがモデル漏洩のリスクを伴わないという2つのメリットを達成できる。
さらに,フレームワークの損失のない性質を検証する理論的証明を提供する。
最後に, 転送内容が十分に保護され, 再構築できないことを示す実験を行った。
論文が受け入れられたら、コードはリリースされます。
関連論文リスト
- PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Love or Hate? Share or Split? Privacy-Preserving Training Using Split
Learning and Homomorphic Encryption [47.86010265348072]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-09-19T10:56:08Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - Training Natural Language Processing Models on Encrypted Text for
Enhanced Privacy [0.0]
本研究では,暗号化されたテキストデータを用いたNLPモデルのトレーニング手法を提案する。
以上の結果から,暗号化モデルと非暗号化モデルの両方が同等の性能を発揮することが示唆された。
論文 参考訳(メタデータ) (2023-05-03T00:37:06Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - The Devil's Advocate: Shattering the Illusion of Unexploitable Data
using Diffusion Models [14.018862290487617]
データ保護の摂動に対抗して、慎重に設計された分極処理が可能であることを示す。
AVATARと呼ばれる我々のアプローチは、最近のアベイラビリティーアタックに対して最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-03-15T10:20:49Z) - Split Ways: Privacy-Preserving Training of Encrypted Data Using Split
Learning [6.916134299626706]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングできる、新たなコラボレーティブ学習技術である。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-01-20T19:26:51Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。