論文の概要: Mitigating Data Exfiltration Attacks through Layer-Wise Learning Rate Decay Fine-Tuning
- arxiv url: http://arxiv.org/abs/2509.00027v1
- Date: Wed, 20 Aug 2025 09:05:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-07 09:10:15.251049
- Title: Mitigating Data Exfiltration Attacks through Layer-Wise Learning Rate Decay Fine-Tuning
- Title(参考訳): 層幅学習率の低下によるデータ流出攻撃の軽減
- Authors: Elie Thellier, Huiyu Li, Nicholas Ayache, Hervé Delingette,
- Abstract要約: データレイクは、機密性の高い高価値の医療データセットで強力な機械学習モデルのトレーニングを可能にする。
近年の研究では、潜在表現をモデルパラメータに埋め込むことで、学習データを抽出できることが示されている。
本稿では,モデルパラメータを減衰層ワイド学習率で微調整することで,輸出時のモデルパラメータを摂動する簡易かつ効果的な緩和戦略を提案する。
- 参考スコア(独自算出の注目度): 4.613829141527782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data lakes enable the training of powerful machine learning models on sensitive, high-value medical datasets, but also introduce serious privacy risks due to potential leakage of protected health information. Recent studies show adversaries can exfiltrate training data by embedding latent representations into model parameters or inducing memorization via multi-task learning. These attacks disguise themselves as benign utility models while enabling reconstruction of high-fidelity medical images, posing severe privacy threats with legal and ethical implications. In this work, we propose a simple yet effective mitigation strategy that perturbs model parameters at export time through fine-tuning with a decaying layer-wise learning rate to corrupt embedded data without degrading task performance. Evaluations on DermaMNIST, ChestMNIST, and MIMIC-CXR show that our approach maintains utility task performance, effectively disrupts state-of-the-art exfiltration attacks, outperforms prior defenses, and renders exfiltrated data unusable for training. Ablations and discussions on adaptive attacks highlight challenges and future directions. Our findings offer a practical defense against data leakage in data lake-trained models and centralized federated learning.
- Abstract(参考訳): データレイクは、機密性の高い高価値の医療データセット上で強力な機械学習モデルのトレーニングを可能にすると同時に、保護された健康情報が漏洩する可能性があるため、深刻なプライバシーリスクも生じさせる。
近年の研究では、潜在表現をモデルパラメータに埋め込んだり、マルチタスク学習による暗記を誘導することで、学習データを抽出できることが示されている。
これらの攻撃は、高忠実度医療画像の復元を可能にする一方で、法的な、倫理的な意味を持つ厳しいプライバシー上の脅威を生じさせながら、良心的なユーティリティーモデルに変装する。
本研究では, タスク性能を劣化させることなく, 組込みデータの劣化を抑えるため, 階層学習率の低下による微調整により, 輸出時のモデルパラメータを摂動する, 単純かつ効果的な緩和戦略を提案する。
DermaMNIST,ChestMNIST,MIMIC-CXRの評価は,本手法が実用タスク性能を維持し,最先端のろ過攻撃を効果的に破壊し,防御性能を向上し,トレーニングに使用不能な抽出データをレンダリングすることを示す。
アダプティブアタックに関するアブレーションや議論は、課題と今後の方向性を強調している。
この結果から,データレイク学習モデルと集中型フェデレーション学習におけるデータ漏洩に対する実践的防御が可能となった。
関連論文リスト
- Reliable Unlearning Harmful Information in LLMs with Metamorphosis Representation Projection [17.369869625390894]
本稿では,機械学習における形態素表現投影(MRP)手法を提案する。
特定のネットワーク層の隠れ状態空間にプロジェクティブ変換を実装することにより,有用な知識を保ちながら有害情報を効果的に除去する。
実験により,本手法は効果的な継続的アンラーニングを可能にし,再学習攻撃に対する防御に成功していることが示された。
論文 参考訳(メタデータ) (2025-08-21T11:12:09Z) - Self-Destructive Language Model [13.808746955144771]
有害な微調整攻撃は、大規模言語モデル(LLM)のセキュリティに大きな脅威をもたらす
本報告では,LEMを自己破壊モデルに変換するアライメント・エンハンス・ディフェンスであるSEAMについて紹介する。
論文 参考訳(メタデータ) (2025-05-18T01:08:18Z) - Data Poisoning and Leakage Analysis in Federated Learning [10.090442512374661]
データ中毒と漏洩のリスクは、現実世界におけるフェデレートされた学習の大規模展開を妨げる。
この章では、データプライバシー侵害のエミュレーションとデータ中毒のエミュレーションという2つの支配的脅威を理解するための真実と落とし穴を明らかにします。
論文 参考訳(メタデータ) (2024-09-19T16:50:29Z) - Remembering Everything Makes You Vulnerable: A Limelight on Machine Unlearning for Personalized Healthcare Sector [0.873811641236639]
この論文は、特にECGモニタリングの文脈において、パーソナライズされた医療モデルの脆弱性に対処することを目的としている。
本稿では,機械学習モデルに対する露出データポイントの影響を軽減するために,"Machine Unlearning" というアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-05T15:38:36Z) - Mellivora Capensis: A Backdoor-Free Training Framework on the Poisoned Dataset without Auxiliary Data [29.842087372804905]
本稿では,現実シナリオにおけるバックドア攻撃対策の課題について述べる。
本稿では,モデルトレーナーが有毒なデータセット上でクリーンなモデルをトレーニングできるようにする,堅牢でクリーンなデータのないバックドア防御フレームワークであるMellivora Capensis(textttMeCa)を提案する。
論文 参考訳(メタデータ) (2024-05-21T12:20:19Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。