論文の概要: Towards Case-based Interpretability for Medical Federated Learning
- arxiv url: http://arxiv.org/abs/2408.13626v1
- Date: Sat, 24 Aug 2024 16:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 18:49:22.079006
- Title: Towards Case-based Interpretability for Medical Federated Learning
- Title(参考訳): 医学フェデレーション学習におけるケースベース解釈の可能性
- Authors: Laura Latorre, Liliana Petrychenko, Regina Beets-Tan, Taisiya Kopytova, Wilson Silva,
- Abstract要約: 医療連携学習環境におけるケースベースの説明を生成するための深層生成モデルについて検討する。
概念実証は胸水診断に焦点をあて,Chest X-rayデータを用いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore deep generative models to generate case-based explanations in a medical federated learning setting. Explaining AI model decisions through case-based interpretability is paramount to increasing trust and allowing widespread adoption of AI in clinical practice. However, medical AI training paradigms are shifting towards federated learning settings in order to comply with data protection regulations. In a federated scenario, past data is inaccessible to the current user. Thus, we use a deep generative model to generate synthetic examples that protect privacy and explain decisions. Our proof-of-concept focuses on pleural effusion diagnosis and uses publicly available Chest X-ray data.
- Abstract(参考訳): 医療連携学習環境におけるケースベースの説明を生成するための深層生成モデルについて検討する。
ケースベースの解釈可能性を通じてAIモデル決定を説明することは、信頼を高め、臨床実践におけるAIの広範な採用を可能にするために最重要である。
しかし、医療AIトレーニングパラダイムは、データ保護規則に従うために、フェデレートされた学習設定に移行している。
フェデレートされたシナリオでは、過去のデータは現在のユーザにはアクセスできない。
したがって、我々は、プライバシーを保護し、意思決定を説明するための合成例を生成するために、深い生成モデルを使用する。
概念実証は胸水診断に焦点をあて,Chest X-rayデータを用いた。
関連論文リスト
- Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Review of Disentanglement Approaches for Medical Applications -- Towards
Solving the Gordian Knot of Generative Models in Healthcare [3.5586630313792513]
本稿では,GAN(Generative Adversarial Networks)やVAE(VAE),フローベースモデルなど,一般的な生成モデルの概要を紹介する。
理論的枠組みを導入した後,最近の医学的応用の概要を述べ,医学的応用における解離アプローチの影響と重要性について論じる。
論文 参考訳(メタデータ) (2022-03-21T17:06:22Z) - Application of Homomorphic Encryption in Medical Imaging [60.51436886110803]
医療画像の予測にHEを用いて,不正な二次的データの使用を防止できることを示す。
結節検出に3次元胸部CT-Scansを用いた実験を行った。
論文 参考訳(メタデータ) (2021-10-12T19:57:12Z) - Leveraging Clinical Context for User-Centered Explainability: A Diabetes
Use Case [4.520155732176645]
慢性腎臓病(CKD)のリスクを評価する2型糖尿病(T2DM)症例における概念実証(POC)を実装した。
POCには、CKDのリスク予測モデル、予測のポストホック説明器、その他の自然言語モジュールが含まれています。
我々のPOCアプローチは、複数の知識ソースと臨床シナリオをカバーし、データと予測をPCPに説明するために知識をブレンドし、医療専門家から熱心に反応した。
論文 参考訳(メタデータ) (2021-07-06T02:44:40Z) - FedDPGAN: Federated Differentially Private Generative Adversarial
Networks Framework for the Detection of COVID-19 Pneumonia [11.835113185061147]
新型コロナウイルス肺炎の検出を目的としたFederatedDifferentially Private Generative Adversarial Network(FedDPGAN)を提案する。
提案モデルの評価は、3種類の胸部X線(CXR)画像データセット(COVID-19, 正常, 正常肺炎)に基づく。
論文 参考訳(メタデータ) (2021-04-26T13:52:12Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。