論文の概要: DP-DCAN: Differentially Private Deep Contrastive Autoencoder Network for Single-cell Clustering
- arxiv url: http://arxiv.org/abs/2311.03410v2
- Date: Mon, 13 May 2024 12:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 01:02:54.919400
- Title: DP-DCAN: Differentially Private Deep Contrastive Autoencoder Network for Single-cell Clustering
- Title(参考訳): DP-DCAN:シングルセルクラスタリングのための差分プライベート・ディープコントラストオートエンコーダネットワーク
- Authors: Huifa Li, Jie Fu, Zhili Chen, Xiaomin Yang, Haitao Liu, Xinpeng Ling,
- Abstract要約: ディープラーニングモデルは、ユーザの機密情報を漏洩する可能性がある。
差別化プライバシ(DP)は、プライバシーを保護するためにますます使われています。
本稿では,ネットワークの中央にある次元再現ベクトルのみを出力するオートエンコーダの特異性を利用する。
単一セルクラスタリングのための部分的ネットワーク摂動により、差分的にプライベートなDeep Contrastive Autoencoder Network (DP-DCAN) を設計する。
- 参考スコア(独自算出の注目度): 29.96339380816541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-cell RNA sequencing (scRNA-seq) is important to transcriptomic analysis of gene expression. Recently, deep learning has facilitated the analysis of high-dimensional single-cell data. Unfortunately, deep learning models may leak sensitive information about users. As a result, Differential Privacy (DP) is increasingly used to protect privacy. However, existing DP methods usually perturb whole neural networks to achieve differential privacy, and hence result in great performance overheads. To address this challenge, in this paper, we take advantage of the uniqueness of the autoencoder that it outputs only the dimension-reduced vector in the middle of the network, and design a Differentially Private Deep Contrastive Autoencoder Network (DP-DCAN) by partial network perturbation for single-cell clustering. Since only partial network is added with noise, the performance improvement is obvious and twofold: one part of network is trained with less noise due to a bigger privacy budget, and the other part is trained without any noise. Experimental results of six datasets have verified that DP-DCAN is superior to the traditional DP scheme with whole network perturbation. Moreover, DP-DCAN demonstrates strong robustness to adversarial attacks.
- Abstract(参考訳): 単細胞RNAシークエンシング(scRNA-seq)は遺伝子発現の転写学的解析において重要である。
近年,ディープラーニングによって高次元単細胞データの解析が進められている。
残念ながら、ディープラーニングモデルはユーザーの機密情報を漏洩させる可能性がある。
その結果、差別化プライバシ(DP)は、プライバシーを保護するためにますます使われています。
しかし、既存のDP手法は通常、ニューラルネットワーク全体を摂動させて差分プライバシーを達成し、結果として性能上のオーバーヘッドが大きくなる。
この課題に対処するために,本研究では,ネットワーク中央の次元レデュースベクトルのみを出力するオートエンコーダの特異性を活用し,単一セルクラスタリングのための部分的ネットワーク摂動による差分プライベート・ディープ・コントラシブ・オートエンコーダネットワーク(DP-DCAN)を設計する。
部分的なネットワークだけがノイズを伴って追加されるため、パフォーマンスの改善は明らかで2倍になる。
6つのデータセットの実験結果から,DP-DCANは従来のDP方式よりもネットワーク摂動に優れていたことが確認された。
さらに,DP-DCANは敵攻撃に対して強い強靭性を示す。
関連論文リスト
- SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Verification of Neural Networks Local Differential Classification
Privacy [1.3024517678456733]
ローカル差分分類プライバシー(LDCP)と呼ばれる新しいプライバシー特性を提案する。
LDCPはローカルロバスト性をブラックボックス分類器に適した差分プライバシー設定に拡張する。
Sphynxは、ネットワークの小さな集合から高い確率で全てのネットワークを抽象化するアルゴリズムである。
論文 参考訳(メタデータ) (2023-10-31T09:11:12Z) - DPIS: An Enhanced Mechanism for Differentially Private SGD with
Importance Sampling [19.59757201902467]
ディファレンシャルプライバシ(DP)は、プライバシ保護の十分に受け入れられた標準となり、ディープニューラルネットワーク(DNN)は、機械学習において非常に成功した。
この目的のための古典的なメカニズムはDP-SGDであり、これは訓練に一般的に使用される勾配降下(SGD)の微分プライベートバージョンである。
DPISは,DP-SGDのコアのドロップイン代替として使用できる,微分プライベートなSGDトレーニングのための新しいメカニズムである。
論文 参考訳(メタデータ) (2022-10-18T07:03:14Z) - Large-Scale Privacy-Preserving Network Embedding against Private Link
Inference Attacks [12.434976161956401]
プライバシ保護ネットワークがプライベートリンク推論攻撃に対して組み込まれるという,新たな問題に対処する。
本稿では,リンクの追加や削除によるオリジナルのネットワークの摂動について提案する。また,この摂動ネットワーク上で発生した埋め込みは,プライベートリンクに関する情報をほとんど漏らすことなく,様々な下流タスクに高いユーティリティを保持することができることを期待する。
論文 参考訳(メタデータ) (2022-05-28T13:59:39Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。