論文の概要: Can We Use Split Learning on 1D CNN Models for Privacy Preserving
Training?
- arxiv url: http://arxiv.org/abs/2003.12365v1
- Date: Mon, 16 Mar 2020 06:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 02:30:27.163237
- Title: Can We Use Split Learning on 1D CNN Models for Privacy Preserving
Training?
- Title(参考訳): 1d cnnモデルの分割学習をプライバシ保護トレーニングに使用できるか?
- Authors: Sharif Abuadbba, Kyuyeon Kim, Minki Kim, Chandra Thapa, Seyit A.
Camtepe, Yansong Gao, Hyoungshick Kim, Surya Nepal
- Abstract要約: スプリットラーニングと呼ばれる新しいコラボレーティブラーニングが最近導入され、サーバに生の入力データを公開せずにユーザのデータプライバシを保護することを目的としている。
本稿では,1次元畳み込みニューラルネットワーク(CNN)モデルのプライバシ保護トレーニングに分割学習を用いることが可能であるかを検討する。
- 参考スコア(独自算出の注目度): 31.618237059436346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new collaborative learning, called split learning, was recently introduced,
aiming to protect user data privacy without revealing raw input data to a
server. It collaboratively runs a deep neural network model where the model is
split into two parts, one for the client and the other for the server.
Therefore, the server has no direct access to raw data processed at the client.
Until now, the split learning is believed to be a promising approach to protect
the client's raw data; for example, the client's data was protected in
healthcare image applications using 2D convolutional neural network (CNN)
models. However, it is still unclear whether the split learning can be applied
to other deep learning models, in particular, 1D CNN.
In this paper, we examine whether split learning can be used to perform
privacy-preserving training for 1D CNN models. To answer this, we first design
and implement an 1D CNN model under split learning and validate its efficacy in
detecting heart abnormalities using medical ECG data. We observed that the 1D
CNN model under split learning can achieve the same accuracy of 98.9\% like the
original (non-split) model. However, our evaluation demonstrates that split
learning may fail to protect the raw data privacy on 1D CNN models. To address
the observed privacy leakage in split learning, we adopt two privacy leakage
mitigation techniques: 1) adding more hidden layers to the client side and 2)
applying differential privacy. Although those mitigation techniques are helpful
in reducing privacy leakage, they have a significant impact on model accuracy.
Hence, based on those results, we conclude that split learning alone would not
be sufficient to maintain the confidentiality of raw sequential data in 1D CNN
models.
- Abstract(参考訳): スプリットラーニングと呼ばれる新しいコラボレーティブラーニングが最近導入され、サーバに生の入力データを公開せずにユーザのデータプライバシを保護することを目的としている。
モデルがクライアントとサーバの2つの部分に分割される、ディープニューラルネットワークモデルが協調して実行される。
したがって、サーバはクライアントで処理された生データに直接アクセスすることができない。
これまでのスプリットラーニングは、クライアントの生データを保護するための有望なアプローチであると考えられており、例えば、クライアントのデータは、2D畳み込みニューラルネットワーク(CNN)モデルを使用して医療画像アプリケーションで保護されていた。
しかし、この分割学習が他のディープラーニングモデル、特に1D CNNに適用できるかどうかはまだ不明である。
本稿では,分割学習を用いて1次元CNNモデルのプライバシー保護訓練を行うかを検討する。
そこで我々はまず,分割学習下での1次元CNNモデルの設計と実装を行い,心電図データを用いた心臓異常検出の有効性を検証した。
分割学習下の1次元CNNモデルは、元の(非分割)モデルと同じ精度で98.9\%を得ることができた。
しかし,本評価は,分割学習が1次元CNNモデルの生データプライバシ保護に失敗することを示した。
分割学習におけるプライバシー漏洩に対処するため、我々は2つのプライバシー漏洩軽減手法を採用した。
1) クライアント側にさらに隠れたレイヤを追加すること
2) 差分プライバシーの適用。
これらの緩和技術は、プライバシーの漏洩を減らすのに役立ちますが、モデルの精度に大きな影響を与えます。
その結果,1次元cnnモデルでは分割学習だけでは生のシーケンシャルデータの秘密性を維持するには不十分であることがわかった。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Love or Hate? Share or Split? Privacy-Preserving Training Using Split
Learning and Homomorphic Encryption [47.86010265348072]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-09-19T10:56:08Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Split Ways: Privacy-Preserving Training of Encrypted Data Using Split
Learning [6.916134299626706]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングできる、新たなコラボレーティブ学習技術である。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-01-20T19:26:51Z) - Self-Ensemble Protection: Training Checkpoints Are Good Data Protectors [41.45649235969172]
自己アンサンブル保護(SEP)は、データに対する優れたモデルのトレーニングを防ぐために提案されている。
例えば、我々の小さな摂動により、CIFAR-10 ResNet18の精度は94.56%から14.68%に低下し、最もよく知られている方法は41.35%となった。
論文 参考訳(メタデータ) (2022-11-22T04:54:20Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Vulnerability Due to Training Order in Split Learning [0.0]
分割学習では、no-peekアルゴリズムと呼ばれる追加のプライバシー保護アルゴリズムを組み込むことができ、敵対攻撃に対して堅牢である。
すべてのクライアントのデータを使ってトレーニングされたモデルは、モデルをトレーニングするためのラウンドの初期に考慮されたクライアントのデータではうまく動作しないことを示している。
また、SplitFedv3アルゴリズムは、分割学習によって得られるプライバシーの利点を引き続き活用しながら、この問題を軽減することを実証する。
論文 参考訳(メタデータ) (2021-03-26T06:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。