論文の概要: Data Exfiltration by Compression Attack: Definition and Evaluation on Medical Image Data
- arxiv url: http://arxiv.org/abs/2511.21227v1
- Date: Wed, 26 Nov 2025 09:55:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.049947
- Title: Data Exfiltration by Compression Attack: Definition and Evaluation on Medical Image Data
- Title(参考訳): 圧縮攻撃によるデータ抽出:医療画像データの定義と評価
- Authors: Huiyu Li, Nicholas Ayache, Hervé Delingette,
- Abstract要約: ディープネットワークモデルは、トレーニングデータセットから情報をエンコードする。
本稿では,画像圧縮技術に基づく新しいデータ抽出攻撃を提案する。
この攻撃は、医療画像を効果的に盗み、データレイクの外で高い忠実度で再構築できることを実証する。
- 参考スコア(独自算出の注目度): 5.040276881893512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid expansion of data lakes storing health data and hosting AI algorithms, a prominent concern arises: how safe is it to export machine learning models from these data lakes? In particular, deep network models, widely used for health data processing, encode information from their training dataset, potentially leading to the leakage of sensitive information upon its export. This paper thoroughly examines this issue in the context of medical imaging data and introduces a novel data exfiltration attack based on image compression techniques. This attack, termed Data Exfiltration by Compression, requires only access to a data lake and is based on lossless or lossy image compression methods. Unlike previous data exfiltration attacks, it is compatible with any image processing task and depends solely on an exported network model without requiring any additional information to be collected during the training process. We explore various scenarios, and techniques to limit the size of the exported model and conceal the compression codes within the network. Using two public datasets of CT and MR images, we demonstrate that this attack can effectively steal medical images and reconstruct them outside the data lake with high fidelity, achieving an optimal balance between compression and reconstruction quality. Additionally, we investigate the impact of basic differential privacy measures, such as adding Gaussian noise to the model parameters, to prevent the Data Exfiltration by Compression Attack. We also show how the attacker can make their attack resilient to differential privacy at the expense of decreasing the number of stolen images. Lastly, we propose an alternative prevention strategy by fine-tuning the model to be exported.
- Abstract(参考訳): 健康データを格納し、AIアルゴリズムをホストするデータレイクの急速な拡張によって、大きな懸念が生まれている。
特に、健康データ処理に広く使用されるディープネットワークモデルでは、トレーニングデータセットから情報をエンコードすることで、エクスポート時に機密情報が漏洩する可能性がある。
本稿では、医用画像データの文脈でこの問題を徹底的に検討し、画像圧縮技術に基づく新しいデータ抽出攻撃を提案する。
この攻撃はData Exfiltration by Compressionと呼ばれ、データレイクへのアクセスのみを必要とし、ロスレスまたはロスリーな画像圧縮手法に基づいている。
以前のデータ消去攻撃とは異なり、任意の画像処理タスクと互換性があり、トレーニングプロセス中に収集される追加情報を必要としない、エクスポートされたネットワークモデルのみに依存している。
我々は,輸出されたモデルのサイズを制限し,ネットワーク内の圧縮コードを隠蔽する様々なシナリオと手法を探索する。
CTとMR画像の2つの公開データセットを用いて、この攻撃により、医用画像を効果的に盗み、高い忠実度でデータ湖の外で再構成でき、圧縮と復元品質の最適なバランスがとれることを実証する。
さらに,モデルパラメータにガウスノイズを加えるなど,基本的な差分プライバシー対策の効果を調査し,圧縮攻撃によるデータ流出を防止する。
また、攻撃者が盗難画像の数を減らし、差分プライバシーに耐性を持たせる方法も示す。
最後に,輸出対象モデルの微調整による代替防止戦略を提案する。
関連論文リスト
- Clean Image May be Dangerous: Data Poisoning Attacks Against Deep Hashing [71.30876587855867]
クリーンなクエリ画像でさえ危険であり、望ましくない画像や違法な画像などの悪意のあるターゲット検索結果が誘導される。
具体的には,まず,対象の深部ハッシュモデルの挙動をシミュレートするために代理モデルを訓練する。
そこで, 毒性画像を生成するため, 厳密な勾配マッチング戦略を提案する。
論文 参考訳(メタデータ) (2025-03-27T07:54:27Z) - Convolutional variational autoencoders for secure lossy image compression in remote sensing [47.75904906342974]
本研究では,畳み込み変分オートエンコーダ(CVAE)に基づく画像圧縮について検討する。
CVAEは、JPEG2000のような従来の圧縮手法を圧縮ベンチマークデータセットのかなりのマージンで上回ることが示されている。
論文 参考訳(メタデータ) (2024-04-03T15:17:29Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Deep learning based Image Compression for Microscopy Images: An
Empirical Study [3.915183869199319]
本研究では,古典的および深層学習に基づく画像圧縮法とその深層学習に基づく画像処理モデルへの影響について分析する。
このような所望の方法で画像を圧縮するには、複数の古典的損失画像圧縮技術と、複数のAIベースの圧縮モデルを比較する。
その結果、AIベースの圧縮技術は従来の圧縮技術よりも優れており、2Dケースでは下流のラベルなしタスクに最小限の影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-02T16:00:32Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Data Stealing Attack on Medical Images: Is it Safe to Export Networks
from Data Lakes? [6.580042032370183]
ニューラルネットワークの輸出中にデータ盗難攻撃という概念を導入する。
画像圧縮を損なうようなネットワークをトレーニングでき、同時にいくつかのユーティリティータスクを解くことができることを示す。
実験と分析により、データ盗難攻撃は機密画像データソースの脅威と見なされるべきであることが示された。
論文 参考訳(メタデータ) (2022-06-07T15:35:50Z) - Towards Robust Data Hiding Against (JPEG) Compression: A
Pseudo-Differentiable Deep Learning Approach [78.05383266222285]
これらの圧縮に対抗できるデータ隠蔽の目標を達成することは、依然としてオープンな課題である。
ディープラーニングはデータの隠蔽に大きな成功を収めていますが、JPEGの非差別化性は、損失のある圧縮に対する堅牢性を改善するための深いパイプラインのトレーニングを困難にしています。
本稿では,上記の制約をすべて一度に解決するための,単純かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-30T12:30:09Z) - Deep data compression for approximate ultrasonic image formation [1.0266286487433585]
超音波イメージングシステムでは、別のコンピュータ装置でデータ取得と画像形成を行う。
ディープニューラルネットワークは、特定の画像形成方法の画質を維持するために最適化されている。
論文 参考訳(メタデータ) (2020-09-04T16:43:12Z) - Distributed Learning and Inference with Compressed Images [40.07509530656681]
本稿では,自律運転に対する視覚に基づく認識をパラダイムシナリオとして取り上げる。
生成逆ネットワーク(GAN)を用いた画像復元に基づくデータセット復元を提案する。
本手法は,特定の画像圧縮手法と下流タスクの両方に非依存である。
論文 参考訳(メタデータ) (2020-04-22T11:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。