論文の概要: MedForget: Hierarchy-Aware Multimodal Unlearning Testbed for Medical AI
- arxiv url: http://arxiv.org/abs/2512.09867v1
- Date: Wed, 10 Dec 2025 17:55:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.621912
- Title: MedForget: Hierarchy-Aware Multimodal Unlearning Testbed for Medical AI
- Title(参考訳): MedForget: 医療AIのための階層型マルチモーダルアンラーニングテスト
- Authors: Fengli Wu, Vaidehi Patil, Jaehong Yoon, Yue Zhang, Mohit Bansal,
- Abstract要約: MedForgetは、階層型を意識したマルチモーダルなアンラーニングテストベッドで、準拠する医療AIシステムを構築する。
既存の手法は,診断性能を低下させることなく,完全かつ階層性に配慮した忘れの解決に苦慮していることを示す。
階層レベルのコンテキストをプロンプトに徐々に追加する再構成攻撃を導入する。
- 参考スコア(独自算出の注目度): 66.0701326117134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pretrained Multimodal Large Language Models (MLLMs) are increasingly deployed in medical AI systems for clinical reasoning, diagnosis support, and report generation. However, their training on sensitive patient data raises critical privacy and compliance challenges under regulations such as HIPAA and GDPR, which enforce the "right to be forgotten". Unlearning, the process of tuning models to selectively remove the influence of specific training data points, offers a potential solution, yet its effectiveness in complex medical settings remains underexplored. To systematically study this, we introduce MedForget, a Hierarchy-Aware Multimodal Unlearning Testbed with explicit retain and forget splits and evaluation sets containing rephrased variants. MedForget models hospital data as a nested hierarchy (Institution -> Patient -> Study -> Section), enabling fine-grained assessment across eight organizational levels. The benchmark contains 3840 multimodal (image, question, answer) instances, each hierarchy level having a dedicated unlearning target, reflecting distinct unlearning challenges. Experiments with four SOTA unlearning methods on three tasks (generation, classification, cloze) show that existing methods struggle to achieve complete, hierarchy-aware forgetting without reducing diagnostic performance. To test whether unlearning truly deletes hierarchical pathways, we introduce a reconstruction attack that progressively adds hierarchical level context to prompts. Models unlearned at a coarse granularity show strong resistance, while fine-grained unlearning leaves models vulnerable to such reconstruction. MedForget provides a practical, HIPAA-aligned testbed for building compliant medical AI systems.
- Abstract(参考訳): MLLM(Pretrained Multimodal Large Language Models)は、臨床推論、診断支援、レポート生成のための医療用AIシステムにますます導入されている。
しかし、センシティブな患者データに対するトレーニングは、HIPAAやGDPRなどの規制の下で重要なプライバシーとコンプライアンスの課題を提起し、「忘れられる権利」を強制する。
特定のトレーニングデータポイントの影響を選択的に除去するモデルをチューニングするUnlearningは、潜在的な解決策を提供するが、複雑な医療環境におけるその有効性は未解明のままである。
これを体系的に研究するために,階層型マルチモーダル・アンラーニングテストベッドであるMedForgetを紹介した。
MedForgetは、病院データをネスト階層(施設->患者->研究->セクション)としてモデル化し、8つの組織レベルにわたるきめ細かい評価を可能にした。
ベンチマークには3840のマルチモーダル(イメージ、質問、回答)インスタンスが含まれている。
4つのSOTAアンラーニング手法を3つのタスク(生成、分類、クローゼ)で実験した結果、既存の手法は診断性能を低下させることなく、完全な階層認識の忘れを忘れることに苦慮していることがわかった。
アンラーニングが階層的経路を真に削除するかどうかを検証するために,階層的文脈をプロンプトに徐々に付加する再構成攻撃を導入する。
粗い粒度で解き放たれたモデルは強い抵抗を示し、微粒な未学習の葉はそのような復元に弱い。
MedForgetは、医療用AIシステムを構築するための実用的でHIPAAに準拠したテストベッドを提供する。
関連論文リスト
- MedAlign: A Synergistic Framework of Multimodal Preference Optimization and Federated Meta-Cognitive Reasoning [52.064286116035134]
我々はMed-VQA(Med-VQA)のための視覚的LVLM応答を保証するフレームワークであるMedAlignを開発した。
まず、優先学習を視覚的コンテキストに合わせるために、マルチモーダルな直接選好最適化(mDPO)の目的を提案する。
次に、画像とテキストの類似性を生かし、クエリを専門的でコンテキスト拡張されたLVLMにルーティングする検索型混合処理(RA-MoE)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-10-24T02:11:05Z) - Data-Efficient Fine-Tuning of Vision-Language Models for Diagnosis of Alzheimer's Disease [3.46857682956989]
医用視覚言語モデル(Med-VLMs)は、レポート生成や視覚的質問応答といったタスクにおいて印象的な結果を示している。
既存のモデルの多くは、スクラッチからトレーニングするか、大規模な2D画像テキストペアで微調整されるのが一般的である。
我々は3次元MRIに3次元CTベースのMed-VLMを適用するためのデータ効率の良い微調整パイプラインを提案する。
論文 参考訳(メタデータ) (2025-09-09T11:36:21Z) - Towards Efficient Prompt-based Continual Learning in Distributed Medical AI [0.13265175299265505]
現代のAIモデルは、大規模で高品質なデータセットで最先端のパフォーマンスを達成する。
医療分野における倫理的、社会的、制度的な制約は、データ共有を厳しく制限している。
本稿では,最小拡張戦略を持つ統一的なプロンプトプールを特徴とする,プロンプトベース連続学習(PCL)手法を提案する。
論文 参考訳(メタデータ) (2025-08-14T06:46:14Z) - Point, Detect, Count: Multi-Task Medical Image Understanding with Instruction-Tuned Vision-Language Models [3.3091869879941687]
マルチタスク医療画像理解のための微調整視覚言語モデル(VLM)について検討する。
我々は各タスクを視覚言語推論に適した命令ベースのプロンプトに再構成する。
その結果,マルチタスクトレーニングにより堅牢性と精度が向上した。
論文 参考訳(メタデータ) (2025-05-22T13:18:44Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - DOCTOR: A Multi-Disease Detection Continual Learning Framework Based on Wearable Medical Sensors [3.088223994180069]
ウェアラブル医療センサ(WMS)に基づく多相検出連続学習フレームワークであるDOCTORを提案する。
マルチヘッドディープニューラルネットワーク(DNN)とリプレイスタイルのCLアルゴリズムを採用している。
平均テスト精度は1.43倍、F1スコアは1.25倍、後方転送は0.41倍である。
論文 参考訳(メタデータ) (2023-05-09T19:33:17Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。