論文の概要: Forget-MI: Machine Unlearning for Forgetting Multimodal Information in Healthcare Settings
- arxiv url: http://arxiv.org/abs/2506.23145v1
- Date: Sun, 29 Jun 2025 08:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.742719
- Title: Forget-MI: Machine Unlearning for Forgetting Multimodal Information in Healthcare Settings
- Title(参考訳): Forget-MI:医療環境におけるマルチモーダル情報構築のための機械学習
- Authors: Shahad Hardan, Darya Taratynova, Abdelmajid Essofi, Karthik Nandakumar, Mohammad Yaqub,
- Abstract要約: Forget-MIはマルチモーダル医療データのための新しい機械学習手法である。
テストデータセットのパフォーマンス、テストデータセットのパフォーマンス、およびメンバーシップ推論攻撃(MIA)を用いて結果を評価する。
提案手法はMIAを0.202削減し,AUCとF1のスコアを0.221と0.305に下げる。
- 参考スコア(独自算出の注目度): 5.200386658850142
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Privacy preservation in AI is crucial, especially in healthcare, where models rely on sensitive patient data. In the emerging field of machine unlearning, existing methodologies struggle to remove patient data from trained multimodal architectures, which are widely used in healthcare. We propose Forget-MI, a novel machine unlearning method for multimodal medical data, by establishing loss functions and perturbation techniques. Our approach unlearns unimodal and joint representations of the data requested to be forgotten while preserving knowledge from the remaining data and maintaining comparable performance to the original model. We evaluate our results using performance on the forget dataset, performance on the test dataset, and Membership Inference Attack (MIA), which measures the attacker's ability to distinguish the forget dataset from the training dataset. Our model outperforms the existing approaches that aim to reduce MIA and the performance on the forget dataset while keeping an equivalent performance on the test set. Specifically, our approach reduces MIA by 0.202 and decreases AUC and F1 scores on the forget set by 0.221 and 0.305, respectively. Additionally, our performance on the test set matches that of the retrained model, while allowing forgetting. Code is available at https://github.com/BioMedIA-MBZUAI/Forget-MI.git
- Abstract(参考訳): AIにおけるプライバシ保護は特に、モデルがセンシティブな患者データに依存する医療において重要である。
機械学習の新興分野において、既存の方法論は、医療で広く使われている訓練されたマルチモーダルアーキテクチャから患者データを除去するのに苦労している。
本稿では、損失関数と摂動技術を確立することで、マルチモーダル医療データのための新しい機械学習手法であるForget-MIを提案する。
我々のアプローチは、元のモデルに匹敵する性能を維持しつつ、残りのデータからの知識を保ちながら、要求されたデータのユニモーダルと共同表現を解放する。
我々は,ナックデータセットのパフォーマンス,テストデータセットのパフォーマンス,およびナックデータセットとトレーニングデータセットを区別する攻撃者の能力を測定するメンバーシップ推論攻撃(MIA)を用いて,我々の結果を評価する。
本モデルでは,テストセットに等価な性能を維持しつつ,MIAの削減を目的とした既存の手法と,Norveデータセットのパフォーマンスを向上する。
具体的には, MIA を 0.202 削減し, AUC と F1 のスコアを 0.221 と 0.305 で減少させる。
さらに、テストセットのパフォーマンスは、再トレーニングされたモデルのそれと一致します。
コードはhttps://github.com/BioMedIA-MBzuAI/Forget-MI.gitで入手できる。
関連論文リスト
- PatientDx: Merging Large Language Models for Protecting Data-Privacy in Healthcare [2.1046377530356764]
大規模言語モデル(LLM)の微調整は、与えられたタスクにおけるモデルパフォーマンスを改善するためのデフォルトのプラクティスとなっている。
patientDxはモデルマージのフレームワークであり、患者データへの微調整や適応を必要とせずに、健康予測タスクに有効なLCMを設計できる。
論文 参考訳(メタデータ) (2025-04-24T08:21:04Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
本稿では,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練する新しいメンバーシップ推論手法EM-MIAを紹介する。
EM-MIAはWikiMIAで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - Probing Language Models for Pre-training Data Detection [11.37731401086372]
本稿では,モデルの内部アクティベーションを調べることで,事前学習データ検出のための探索手法を提案する。
我々の手法はシンプルで効果的であり、より信頼性の高い事前学習データ検出につながる。
論文 参考訳(メタデータ) (2024-06-03T13:58:04Z) - TOFU: A Task of Fictitious Unlearning for LLMs [99.92305790945507]
Webからの大量のコーパスに基づいてトレーニングされた大規模な言語モデルは、法的および倫理的懸念を提起する機密データやプライベートデータを再現することができる。
トレーニングデータに存在する情報を忘れるためにモデルをチューニングするアンラーニングは、トレーニング後のプライベートデータを保護する手段を提供する。
未学習の理解を深めるためのベンチマークであるTOFUを紹介する。
論文 参考訳(メタデータ) (2024-01-11T18:57:12Z) - Federated Learning of Medical Concepts Embedding using BEHRT [0.0]
医療概念の埋め込み学習のための連合学習手法を提案する。
我々のアプローチは、EHRのディープニューラルネットワークモデルであるBEHRTのような埋め込みモデルに基づいている。
我々は、FLで訓練されたモデルと集中型データで訓練されたモデルのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2023-05-22T14:05:39Z) - DOCTOR: A Multi-Disease Detection Continual Learning Framework Based on Wearable Medical Sensors [3.088223994180069]
ウェアラブル医療センサ(WMS)に基づく多相検出連続学習フレームワークであるDOCTORを提案する。
マルチヘッドディープニューラルネットワーク(DNN)とリプレイスタイルのCLアルゴリズムを採用している。
平均テスト精度は1.43倍、F1スコアは1.25倍、後方転送は0.41倍である。
論文 参考訳(メタデータ) (2023-05-09T19:33:17Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Markov Chain Monte Carlo-Based Machine Unlearning: Unlearning What Needs
to be Forgotten [31.624662214658446]
本稿ではマルコフ連鎖モンテカルロに基づく機械学習(MCU)アルゴリズムを提案する。
MCUは、トレーニングデータセットのサブセットからトレーニングされたモデルを効率的かつ効率的に解放するのに役立つ。
実世界のフィッシングおよび糖尿病データセットにおけるMCUアルゴリズムの性能を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-28T07:14:34Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。