論文の概要: Privacy-preserving medical image analysis
- arxiv url: http://arxiv.org/abs/2012.06354v1
- Date: Thu, 10 Dec 2020 13:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 15:44:26.447366
- Title: Privacy-preserving medical image analysis
- Title(参考訳): プライバシー保護医療画像解析
- Authors: Alexander Ziller, Jonathan Passerat-Palmbach, Th\'eo Ryffel, Dmitrii
Usynin, Andrew Trask, Ion\'esio Da Lima Costa Junior, Jason Mancuso, Marcus
Makowski, Daniel Rueckert, Rickmer Braren, Georgios Kaissis
- Abstract要約: 医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
- 参考スコア(独自算出の注目度): 53.4844489668116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The utilisation of artificial intelligence in medicine and healthcare has led
to successful clinical applications in several domains. The conflict between
data usage and privacy protection requirements in such systems must be resolved
for optimal results as well as ethical and legal compliance. This calls for
innovative solutions such as privacy-preserving machine learning (PPML). We
present PriMIA (Privacy-preserving Medical Image Analysis), a software
framework designed for PPML in medical imaging. In a real-life case study we
demonstrate significantly better classification performance of a securely
aggregated federated learning model compared to human experts on unseen
datasets. Furthermore, we show an inference-as-a-service scenario for
end-to-end encrypted diagnosis, where neither the data nor the model are
revealed. Lastly, we empirically evaluate the framework's security against a
gradient-based model inversion attack and demonstrate that no usable
information can be recovered from the model.
- Abstract(参考訳): 医療と医療における人工知能の利用は、いくつかの領域で臨床応用に成功している。
このようなシステムにおけるデータ利用とプライバシー保護要件の衝突は、倫理的および法的コンプライアンスだけでなく、最適な結果のために解決されなければならない。
これにより、プライバシー保護機械学習(PPML)のような革新的なソリューションが求められている。
医用画像解析におけるPPMLのためのソフトウェアフレームワークであるPriMIA(Privacy-Preserving Medical Image Analysis)を提案する。
実生活のケーススタディでは、未発見データセットの人間専門家と比較して、セキュアに集約されたフェデレーション学習モデルの分類性能が有意に高いことが示されています。
さらに、エンドツーエンドの暗号化診断のための推論・アズ・ア・サービスシナリオを示し、データもモデルも明らかにしない。
最後に,グラデーションに基づくモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価し,モデルから使用可能な情報を復元できないことを示す。
関連論文リスト
- Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Masked Clinical Modelling: A Framework for Synthetic and Augmented Survival Data Generation [1.7769033811751995]
本稿では,マスク付き言語モデリングに触発されたMCM(Masked Clinical Modelling)について紹介する。
MCMはデータ合成と条件付きデータ拡張の両方のために設計されている。
我々は,このプロトタイプをCox Proportional Hazardsモデルを用いてWHAS500データセット上で評価する。
論文 参考訳(メタデータ) (2024-10-22T08:38:46Z) - Towards Case-based Interpretability for Medical Federated Learning [0.0]
医療連携学習環境におけるケースベースの説明を生成するための深層生成モデルについて検討する。
概念実証は胸水診断に焦点をあて,Chest X-rayデータを用いた。
論文 参考訳(メタデータ) (2024-08-24T16:42:12Z) - Privacy Preserving Federated Learning in Medical Imaging with Uncertainty Estimation [15.63535423357971]
機械学習(ML)と人工知能(AI)は、特に医療において顕著な進歩を加速している。医療画像では、MLモデルは、疾患の診断、治療計画、治療後のモニタリングを改善するという約束を持っている。
患者のデータを取り巻くプライバシーに関する懸念は、正確で堅牢で一般化可能なモデルの開発とトレーニングに必要な大規模なトレーニングデータセットの組み立てを妨げる。
フェデレートラーニング(FL)は魅力的なソリューションとして登場し、データ(医療画像など)ではなくモデルトレーニング情報(段階的)を共有することで、組織がMLモデルのトレーニングに協力できるようにする。
論文 参考訳(メタデータ) (2024-06-18T17:35:52Z) - Privacy-Preserving Medical Image Classification through Deep Learning
and Matrix Decomposition [0.0]
近年,医学領域において深層学習(DL)ソリューションが広く研究されている。
医療関連データの利用は厳格に規制されており、病院の外部で医療記録を処理するためには、堅牢なデータ保護措置が必要である。
本稿では, 特異値分解(SVD)と主成分分析(PCA)を用いて, DL解析に使用する前に, 医用画像の難読化を行う。
保護されたデータから関連する情報を抽出するDLアルゴリズムの能力は、難読化フレームに基づく血管造影ビュー分類のタスクに基づいて評価される。
論文 参考訳(メタデータ) (2023-08-31T08:21:09Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - MedPerf: Open Benchmarking Platform for Medical Artificial Intelligence
using Federated Evaluation [110.31526448744096]
この可能性を解き明かすには、大規模な異種データに対して医療AIモデルの性能を測定する体系的な方法が必要である、と私たちは主張する。
MedPerfは、医療分野で機械学習をベンチマークするためのオープンフレームワークです。
論文 参考訳(メタデータ) (2021-09-29T18:09:41Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods [10.504951891644474]
生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。