論文の概要: MedFedPure: A Medical Federated Framework with MAE-based Detection and Diffusion Purification for Inference-Time Attacks
- arxiv url: http://arxiv.org/abs/2511.11625v1
- Date: Fri, 07 Nov 2025 08:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.312543
- Title: MedFedPure: A Medical Federated Framework with MAE-based Detection and Diffusion Purification for Inference-Time Attacks
- Title(参考訳): MedFedPure: 推論時間攻撃に対するMAEによる検出と拡散浄化を備えた医療連携フレームワーク
- Authors: Mohammad Karami, Mohammad Reza Nemati, Aidin Kazemi, Ali Mikaeili Barzili, Hamid Azadegan, Behzad Moshiri,
- Abstract要約: 敵対的攻撃は、人間の目に見えない方法で医療スキャンを微妙に変更できるが、AIモデルを誤解させるには十分強力だ。
我々は、プライバシや精度を損なうことなく、推論時に診断AIモデルを保護するように設計された、パーソナライズされた学習防衛フレームワークであるMedFedPureを紹介する。
- 参考スコア(独自算出の注目度): 1.3069778058355659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) has shown great potential in medical imaging, particularly for brain tumor detection using Magnetic Resonance Imaging (MRI). However, the models remain vulnerable at inference time when they are trained collaboratively through Federated Learning (FL), an approach adopted to protect patient privacy. Adversarial attacks can subtly alter medical scans in ways invisible to the human eye yet powerful enough to mislead AI models, potentially causing serious misdiagnoses. Existing defenses often assume centralized data and struggle to cope with the decentralized and diverse nature of federated medical settings. In this work, we present MedFedPure, a personalized federated learning defense framework designed to protect diagnostic AI models at inference time without compromising privacy or accuracy. MedFedPure combines three key elements: (1) a personalized FL model that adapts to the unique data distribution of each institution; (2) a Masked Autoencoder (MAE) that detects suspicious inputs by exposing hidden perturbations; and (3) an adaptive diffusion-based purification module that selectively cleans only the flagged scans before classification. Together, these steps offer robust protection while preserving the integrity of normal, benign images. We evaluated MedFedPure on the Br35H brain MRI dataset. The results show a significant gain in adversarial robustness, improving performance from 49.50% to 87.33% under strong attacks, while maintaining a high clean accuracy of 97.67%. By operating locally and in real time during diagnosis, our framework provides a practical path to deploying secure, trustworthy, and privacy-preserving AI tools in clinical workflows. Index Terms: cancer, tumor detection, federated learning, masked autoencoder, diffusion, privacy
- Abstract(参考訳): 人工知能(AI)は医療画像、特に磁気共鳴イメージング(MRI)を用いた脳腫瘍検出において大きな可能性を秘めている。
しかしながら、これらのモデルは、患者のプライバシを保護するために採用されたアプローチであるフェデレートラーニング(FL)を通じて、協調的にトレーニングされる場合、推論時にも脆弱なままである。
敵対的攻撃は、人間の目に見えない方法で医療スキャンを微妙に変更できるが、AIモデルを誤認させるほど強力で、深刻な誤診を引き起こす可能性がある。
既存の防衛は中央集権的なデータを前提としており、連邦化された医療環境の分散的で多様な性質に対処するのに苦労することが多い。
本稿では、プライバシや精度を損なうことなく、推論時に診断AIモデルを保護するために設計された、パーソナライズされた学習防衛フレームワークであるMedFedPureを紹介する。
MedFedPureは,(1)各施設の独特なデータ分布に適応するパーソナライズされたFLモデル,(2)隠れた摂動を隠蔽して不審な入力を検出するMasked Autoencoder(MAE),(3)フラグ付きスキャンのみを選択的に浄化する適応拡散型浄化モジュールの3つの重要な要素を組み合わせる。
これらのステップは、正常で良質な画像の整合性を維持しながら、堅牢な保護を提供する。
Br35H脳MRIを用いたMedFedPureの評価を行った。
その結果、強い攻撃下では49.50%から87.33%まで性能が向上し、高い清潔度は97.67%を維持した。
我々のフレームワークは、診断中のローカルおよびリアルタイムに運用することにより、臨床ワークフローにセキュアで信頼性が高く、プライバシ保護のAIツールをデプロイする実践的な方法を提供します。
指標用語:癌、腫瘍検出、連合学習、マスク付きオートエンコーダ、拡散、プライバシー
関連論文リスト
- A Novel Approach to Breast Cancer Segmentation using U-Net Model with Attention Mechanisms and FedProx [0.0]
乳がんは世界中の女性の間で主要な死因であり、早期発見と正確な診断の必要性を強調している。
医療データの繊細な性質は、正確でプライベートな人工知能モデルを開発することを困難にしている。
FedProxは、非IIDローカルな医療データセット上で、正確な機械学習モデルをトレーニングするための有望なアプローチになる可能性がある。
論文 参考訳(メタデータ) (2025-10-21T22:38:18Z) - Robust Training with Data Augmentation for Medical Imaging Classification [0.0]
ディープニューラルネットワークは、医療画像を用いて医療状況を検出し、診断するためにますます使われてきている。
実用性にもかかわらず、これらのモデルは敵の攻撃や分散シフトに対して非常に脆弱である。
医用画像分類における脆弱性を軽減するために,データ拡張による堅牢なトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-20T16:36:39Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Empowering Healthcare through Privacy-Preserving MRI Analysis [3.6394715554048234]
本稿では,Ensemble-Based Federated Learning (EBFL)フレームワークを紹介する。
EBFLフレームワークは、機密性の高い患者データを共有することよりも、モデルの特徴を強調することによって、従来のアプローチから逸脱する。
グリオーマ,髄膜腫,下垂体,非腫瘍例などの脳腫瘍の分類において,有意な精度が得られた。
論文 参考訳(メタデータ) (2024-03-14T19:51:18Z) - Adversarial Medical Image with Hierarchical Feature Hiding [38.551147309335185]
逆例(AEs)は、医用画像の深層学習に基づく手法において、大きなセキュリティ上の欠陥を生じさせる。
PGDのような従来の敵攻撃は特徴空間で容易に区別でき、正確な反応性防御をもたらすことが判明した。
本稿では,従来のホワイトボックス攻撃に対する新たなアドオンであるHFC(Simple-yet- Effective Hierarchical Feature constraint)を提案する。
論文 参考訳(メタデータ) (2023-12-04T07:04:20Z) - Preventing Unauthorized AI Over-Analysis by Medical Image Adversarial
Watermarking [43.17275405041853]
医用画像適応型透かし(MIAD-MARK)という先駆的手法を提案する。
提案手法では,不許可なAI診断モデルを戦略的に誤解させ,視覚的コンテンツの完全性を損なうことなく誤った予測を誘導する透かしを導入している。
本手法は,高度な透かし除去網が存在する場合でも,医用画像の不正利用を効果的に軽減する。
論文 参考訳(メタデータ) (2023-03-17T09:37:41Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。