論文の概要: Data Stealing Attack on Medical Images: Is it Safe to Export Networks
from Data Lakes?
- arxiv url: http://arxiv.org/abs/2206.03391v1
- Date: Tue, 7 Jun 2022 15:35:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 16:55:00.472685
- Title: Data Stealing Attack on Medical Images: Is it Safe to Export Networks
from Data Lakes?
- Title(参考訳): 医療画像へのデータ盗み攻撃:データレイクからネットワークをエクスポートすることは安全か?
- Authors: Huiyu Li, Nicholas Ayache, Herv\'e Delingette
- Abstract要約: ニューラルネットワークの輸出中にデータ盗難攻撃という概念を導入する。
画像圧縮を損なうようなネットワークをトレーニングでき、同時にいくつかのユーティリティータスクを解くことができることを示す。
実験と分析により、データ盗難攻撃は機密画像データソースの脅威と見なされるべきであることが示された。
- 参考スコア(独自算出の注目度): 6.580042032370183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In privacy-preserving machine learning, it is common that the owner of the
learned model does not have any physical access to the data. Instead, only a
secured remote access to a data lake is granted to the model owner without any
ability to retrieve data from the data lake. Yet, the model owner may want to
export the trained model periodically from the remote repository and a question
arises whether this may cause is a risk of data leakage. In this paper, we
introduce the concept of data stealing attack during the export of neural
networks. It consists in hiding some information in the exported network that
allows the reconstruction outside the data lake of images initially stored in
that data lake. More precisely, we show that it is possible to train a network
that can perform lossy image compression and at the same time solve some
utility tasks such as image segmentation. The attack then proceeds by exporting
the compression decoder network together with some image codes that leads to
the image reconstruction outside the data lake. We explore the feasibility of
such attacks on databases of CT and MR images, showing that it is possible to
obtain perceptually meaningful reconstructions of the target dataset, and that
the stolen dataset can be used in turns to solve a broad range of tasks.
Comprehensive experiments and analyses show that data stealing attacks should
be considered as a threat for sensitive imaging data sources.
- Abstract(参考訳): プライバシ保存機械学習では、学習モデルの所有者がデータへの物理的アクセスを持っていないことが一般的である。
代わりに、保護されたデータレイクへのリモートアクセスのみが、データレイクからデータを取得する能力のないモデル所有者に与えられる。
しかし、モデルオーナーは、トレーニングされたモデルを定期的にリモートリポジトリからエクスポートしたいかもしれない。
本稿では,ニューラルネットワークの輸出中におけるデータ盗難攻撃の概念を紹介する。
エクスポートされたネットワークにいくつかの情報を隠して、そのデータレイクに格納された画像のデータレイクの外部に復元を可能にする。
より正確には、損失のある画像圧縮を実行できるネットワークを訓練することができ、同時に画像分割のようなユーティリティなタスクも解決できることを示す。
攻撃は、圧縮デコーダネットワークをいくつかの画像コードと共にエクスポートし、データレイクの外で画像再構成を行う。
対象とするデータセットの知覚的に有意義な再構成が可能であり、盗まれたデータセットを順番に使用して幅広いタスクを解決できることを示すため、ctおよびmr画像データベースに対するそのような攻撃の可能性を検討する。
総合的な実験と分析により、データ盗難攻撃は機密画像データソースの脅威と見なされるべきであることが示された。
関連論文リスト
- Stealing Image-to-Image Translation Models With a Single Query [24.819964498441635]
画像と画像のモデルを盗む可能性について検討する。
このようなモデルの多くは、1つの小さなクエリイメージで盗むことができる。
注目すべきは、攻撃を盗む脆弱性は、CNNや注意機構を持つモデルによって共有されていることだ。
論文 参考訳(メタデータ) (2024-06-02T18:30:41Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - DeepTaster: Adversarial Perturbation-Based Fingerprinting to Identify
Proprietary Dataset Use in Deep Neural Networks [34.11970637801044]
我々は、被害者のデータを不正に使用して容疑者モデルを構築するシナリオに対処する、新しいフィンガープリント技術であるDeepTasterを紹介した。
これを実現するために、DeepTasterは摂動を伴う逆画像を生成し、それらをフーリエ周波数領域に変換し、これらの変換された画像を使用して被疑者モデルで使用されるデータセットを識別する。
論文 参考訳(メタデータ) (2022-11-24T11:10:54Z) - Hiding Data in Colors: Secure and Lossless Deep Image Steganography via
Conditional Invertible Neural Networks [20.81947232336795]
既存のディープイメージステガノグラフィー手法は、コンテナイメージのホストイメージに対する視覚的類似性のみを考慮し、コンテナイメージの統計的セキュリティ(ステガノグラフィー)を無視する。
画像に任意の型でデータを埋め込むディープ・イメージ・ステガノグラフィー(deep image steganography)を提案する。
論文 参考訳(メタデータ) (2022-01-19T07:09:36Z) - Adversarial Attack across Datasets [98.13178217557193]
Deep Neural Networks(DNN)は、クエリフリーのブラックボックス設定での攻撃の転送に対して脆弱である。
本稿では,任意のデータセットから出現した画像の分類情報を消去する画像分類消去装置(ICE)を提案する。
論文 参考訳(メタデータ) (2021-10-13T02:07:40Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。