論文の概要: Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data
- arxiv url: http://arxiv.org/abs/2511.19498v1
- Date: Sun, 23 Nov 2025 15:28:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.046334
- Title: Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data
- Title(参考訳): 不完全・プライバシーに敏感な医療データを用いたバイオメディカル・ヘルスケアインテリジェンスのための階層的デュアルストラテジーアンラーニング
- Authors: Yi Zhang, Tianxiang Xu, Zijian Li, Chao Zhang, Kunyu Zhang, Zhan Gao, Meinuo Li, Xiaohan Zhang, Qichao Qi, Bing Chen,
- Abstract要約: 大きな言語モデル(LLM)は例外的な性能を示すが、かなりのプライバシーリスクを引き起こす。
選択的知識学習のための階層的二重ストラテジーフレームワークを提案する。
当社のフレームワークは、パラメータの0.1%しか変更することなく、堅牢なプライバシ保証を維持しています。
- 参考スコア(独自算出の注目度): 15.916549580598462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) exhibit exceptional performance but pose substantial privacy risks due to training data memorization, particularly within healthcare contexts involving imperfect or privacy-sensitive patient information. We present a hierarchical dual-strategy framework for selective knowledge unlearning that precisely removes specialized knowledge while preserving fundamental medical competencies. Our approach synergistically integrates geometric-constrained gradient updates to selectively modulate target parameters with concept-aware token-level interventions that distinguish between preservation-critical and unlearning-targeted tokens via a unified four-level medical concept hierarchy. Comprehensive evaluations on the MedMCQA (surgical) and MHQA (anxiety, depression, trauma) datasets demonstrate superior performance, achieving an 82.7% forgetting rate and 88.5% knowledge preservation. Notably, our framework maintains robust privacy guarantees while requiring modification of only 0.1% of parameters, addressing critical needs for regulatory compliance, auditability, and ethical standards in clinical research.
- Abstract(参考訳): 大規模言語モデル(LLM)は、例外的なパフォーマンスを示すが、特に不完全またはプライバシに敏感な患者情報を含む医療状況において、トレーニングデータの記憶が原因で、かなりのプライバシーリスクを引き起こす。
基本的医学的能力を維持しながら、専門知識を正確に除去する選択的知識学習のための階層的二重戦略フレームワークを提案する。
提案手法は幾何学的制約付き勾配更新を相乗的に統合し,4段階の医療概念階層を統一して,保存クリティカルトークンと未学習トークンを区別するトークンレベルの介入により,目標パラメータを選択的に変調する。
MedMCQA (surgical) と MHQA (anxiety, depression, trauma) データセットの総合的な評価は、82.7%の忘れ込み率と88.5%の知識保存を達成し、優れたパフォーマンスを示している。
特に、我々のフレームワークは、規制コンプライアンス、監査可能性、臨床研究における倫理基準に対する重要なニーズに対処しながら、わずか0.1%のパラメータの変更を要求しながら、堅牢なプライバシー保証を維持している。
関連論文リスト
- MedHE: Communication-Efficient Privacy-Preserving Federated Learning with Adaptive Gradient Sparsification for Healthcare [0.0]
本稿では,適応勾配スペーシフィケーションとCKKSの同型暗号化を組み合わせた新しいフレームワークであるMedHEについて述べる。
提案手法では, モデルユーティリティを保ちながら, 97.5パーセントの通信削減を実現し, エラー補償を施した動的しきい値機構を導入している。
論文 参考訳(メタデータ) (2025-11-12T06:50:48Z) - Exploring Membership Inference Vulnerabilities in Clinical Large Language Models [42.52690697965999]
臨床大言語モデル(LLM)におけるメンバーシップ推論脆弱性の探索的研究について述べる。
最新の臨床質問応答モデルであるLlemrを用いて、標準的損失に基づく攻撃とドメインを動機としたパラフレージングに基づく摂動戦略の両方を評価する。
その結果は、コンテキスト認識、ドメイン固有のプライバシ評価、防衛の継続的な開発を動機付けている。
論文 参考訳(メタデータ) (2025-10-21T14:27:48Z) - Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Empowering Healthcare through Privacy-Preserving MRI Analysis [3.6394715554048234]
本稿では,Ensemble-Based Federated Learning (EBFL)フレームワークを紹介する。
EBFLフレームワークは、機密性の高い患者データを共有することよりも、モデルの特徴を強調することによって、従来のアプローチから逸脱する。
グリオーマ,髄膜腫,下垂体,非腫瘍例などの脳腫瘍の分類において,有意な精度が得られた。
論文 参考訳(メタデータ) (2024-03-14T19:51:18Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。