論文の概要: Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering
- arxiv url: http://arxiv.org/abs/2410.17484v1
- Date: Wed, 23 Oct 2024 00:31:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:57:30.655546
- Title: Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering
- Title(参考訳): 信頼できるクライアントとは何か:医療画像質問応答のための信頼性とパーソナライズされたプロンプト型フェデレーションラーニング
- Authors: He Zhu, Ren Togo, Takahiro Ogawa, Miki Haseyama,
- Abstract要約: 本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
- 参考スコア(独自算出の注目度): 51.26412822853409
- License:
- Abstract: Conventional medical artificial intelligence (AI) models face barriers in clinical application and ethical issues owing to their inability to handle the privacy-sensitive characteristics of medical data. We present a novel personalized federated learning (pFL) method for medical visual question answering (VQA) models, addressing privacy reliability challenges in the medical domain. Our method introduces learnable prompts into a Transformer architecture to efficiently train it on diverse medical datasets without massive computational costs. Then we introduce a reliable client VQA model that incorporates Dempster-Shafer evidence theory to quantify uncertainty in predictions, enhancing the model's reliability. Furthermore, we propose a novel inter-client communication mechanism that uses maximum likelihood estimation to balance accuracy and uncertainty, fostering efficient integration of insights across clients.
- Abstract(参考訳): 従来の医療人工知能(AI)モデルは、医療データのプライバシーに敏感な特性を扱うことができないため、臨床応用における障壁や倫理的問題に直面している。
本稿では,医療領域におけるプライバシの信頼性問題に対処する,医用視覚質問応答(VQA)モデルのための新しいパーソナライズド・フェデレーション・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
次に、Dempster-Shaferエビデンス理論を組み込んだ信頼性の高いクライアントVQAモデルを導入し、予測の不確実性を定量化し、モデルの信頼性を高める。
さらに,精度と不確かさのバランスをとるために最大推定値を用いて,クライアント間での洞察の効率的な統合を促進する新しいクライアント間通信機構を提案する。
関連論文リスト
- Future-Proofing Medical Imaging with Privacy-Preserving Federated Learning and Uncertainty Quantification: A Review [14.88874727211064]
AIはすぐに、病気の診断、予後、治療計画、治療後の監視のための臨床実践のルーチンになるかもしれない。
患者のデータを取り巻くプライバシー上の懸念は、医療画像にAIが広く採用される上で大きな障壁となる。
Federated Learning(FL)は、機密データを共有することなく、AIモデルを協調的にトレーニングするためのソリューションを提供する。
論文 参考訳(メタデータ) (2024-09-24T16:55:32Z) - Would You Trust an AI Doctor? Building Reliable Medical Predictions with Kernel Dropout Uncertainty [14.672477787408887]
小型医療データセットの信頼性を高めるため,カーネルモデルを用いたベイジアンモンテカルロ・ドロップアウトモデルを導入する。
限られたデータであっても、信頼性が大幅に向上し、AI駆動型医療予測の信頼構築に向けた有望なステップを提供します。
論文 参考訳(メタデータ) (2024-04-16T11:43:26Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Prompt-based Personalized Federated Learning for Medical Visual Question
Answering [56.002377299811656]
本稿では,データの不均一性とプライバシの懸念に対処するための,新しいプロンプトベースのパーソナライズド・フェデレーション・ラーニング(pFL)手法を提案する。
我々は、異なる臓器からの医療データセットをクライアントとみなし、各クライアントに対してパーソナライズされたトランスフォーマーベースのVQAモデルをトレーニングするためにpFLを使用する。
論文 参考訳(メタデータ) (2024-02-15T03:09:54Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。