論文の概要: Privacy-preserving medical image analysis
- arxiv url: http://arxiv.org/abs/2012.06354v1
- Date: Thu, 10 Dec 2020 13:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 15:44:26.447366
- Title: Privacy-preserving medical image analysis
- Title(参考訳): プライバシー保護医療画像解析
- Authors: Alexander Ziller, Jonathan Passerat-Palmbach, Th\'eo Ryffel, Dmitrii
Usynin, Andrew Trask, Ion\'esio Da Lima Costa Junior, Jason Mancuso, Marcus
Makowski, Daniel Rueckert, Rickmer Braren, Georgios Kaissis
- Abstract要約: 医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
- 参考スコア(独自算出の注目度): 53.4844489668116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The utilisation of artificial intelligence in medicine and healthcare has led
to successful clinical applications in several domains. The conflict between
data usage and privacy protection requirements in such systems must be resolved
for optimal results as well as ethical and legal compliance. This calls for
innovative solutions such as privacy-preserving machine learning (PPML). We
present PriMIA (Privacy-preserving Medical Image Analysis), a software
framework designed for PPML in medical imaging. In a real-life case study we
demonstrate significantly better classification performance of a securely
aggregated federated learning model compared to human experts on unseen
datasets. Furthermore, we show an inference-as-a-service scenario for
end-to-end encrypted diagnosis, where neither the data nor the model are
revealed. Lastly, we empirically evaluate the framework's security against a
gradient-based model inversion attack and demonstrate that no usable
information can be recovered from the model.
- Abstract(参考訳): 医療と医療における人工知能の利用は、いくつかの領域で臨床応用に成功している。
このようなシステムにおけるデータ利用とプライバシー保護要件の衝突は、倫理的および法的コンプライアンスだけでなく、最適な結果のために解決されなければならない。
これにより、プライバシー保護機械学習(PPML)のような革新的なソリューションが求められている。
医用画像解析におけるPPMLのためのソフトウェアフレームワークであるPriMIA(Privacy-Preserving Medical Image Analysis)を提案する。
実生活のケーススタディでは、未発見データセットの人間専門家と比較して、セキュアに集約されたフェデレーション学習モデルの分類性能が有意に高いことが示されています。
さらに、エンドツーエンドの暗号化診断のための推論・アズ・ア・サービスシナリオを示し、データもモデルも明らかにしない。
最後に,グラデーションに基づくモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価し,モデルから使用可能な情報を復元できないことを示す。
関連論文リスト
- Privacy-Preserving Medical Image Classification through Deep Learning
and Matrix Decomposition [0.0]
近年,医学領域において深層学習(DL)ソリューションが広く研究されている。
医療関連データの利用は厳格に規制されており、病院の外部で医療記録を処理するためには、堅牢なデータ保護措置が必要である。
本稿では, 特異値分解(SVD)と主成分分析(PCA)を用いて, DL解析に使用する前に, 医用画像の難読化を行う。
保護されたデータから関連する情報を抽出するDLアルゴリズムの能力は、難読化フレームに基づく血管造影ビュー分類のタスクに基づいて評価される。
論文 参考訳(メタデータ) (2023-08-31T08:21:09Z) - Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation [0.16746114653388383]
Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
論文 参考訳(メタデータ) (2023-08-01T21:59:22Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI
models in medical imaging [49.588766426499184]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - MedPerf: Open Benchmarking Platform for Medical Artificial Intelligence
using Federated Evaluation [110.31526448744096]
この可能性を解き明かすには、大規模な異種データに対して医療AIモデルの性能を測定する体系的な方法が必要である、と私たちは主張する。
MedPerfは、医療分野で機械学習をベンチマークするためのオープンフレームワークです。
論文 参考訳(メタデータ) (2021-09-29T18:09:41Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods [10.504951891644474]
生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:02:57Z) - Machine Learning in Precision Medicine to Preserve Privacy via
Encryption [2.099922236065961]
我々は,がんを予測するMLモデルの構築に使用した,暗号化(MLE)フレームワークを用いた汎用機械学習を提案する。
我々のフレームワークの予測精度は、同じデータセット上で実施された最新の研究よりもわずかに高い。
私たちは、フレームワークの設計と実装、すべてのML実験とコード、そして、無料のクラウドサービスにデプロイされた最終的な予測モデルを含む、オープンソースのリポジトリを提供しています。
論文 参考訳(メタデータ) (2021-02-05T20:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。