論文の概要: Human-AI Collaborative Multi-modal Multi-rater Learning for Endometriosis Diagnosis
- arxiv url: http://arxiv.org/abs/2409.02046v2
- Date: Thu, 5 Sep 2024 09:41:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 12:05:46.111142
- Title: Human-AI Collaborative Multi-modal Multi-rater Learning for Endometriosis Diagnosis
- Title(参考訳): 子宮内膜症診断のためのヒト-AI協調マルチモーダルマルチレイタラーニング
- Authors: Hu Wang, David Butler, Yuan Zhang, Jodie Avery, Steven Knox, Congbo Ma, Louise Hull, Gustavo Carneiro,
- Abstract要約: 子宮内膜症は、出生時に女性に割り当てられた患者の約10%に影響を及ぼし、診断と管理が困難である。
診断は通常、腹腔鏡下手術またはT1/T2MRI画像の解析を用いて、疾患の様々な徴候を同定する。
子宮内膜症の診断上の重要な徴候は、ポウチ・オブ・ダグラス(POD)の消滅である。
本稿では,アンダーラインHuman-underlineAIアンダーラインMulti-modalアンダーラインMulti-rater Learning (HA)を紹介する。
- 参考スコア(独自算出の注目度): 13.372164412206956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Endometriosis, affecting about 10\% of individuals assigned female at birth, is challenging to diagnose and manage. Diagnosis typically involves the identification of various signs of the disease using either laparoscopic surgery or the analysis of T1/T2 MRI images, with the latter being quicker and cheaper but less accurate. A key diagnostic sign of endometriosis is the obliteration of the Pouch of Douglas (POD). However, even experienced clinicians struggle with accurately classifying POD obliteration from MRI images, which complicates the training of reliable AI models. In this paper, we introduce the \underline{H}uman-\underline{AI} \underline{Co}llaborative \underline{M}ulti-modal \underline{M}ulti-rater Learning (HAICOMM) methodology to address the challenge above. HAICOMM is the first method that explores three important aspects of this problem: 1) multi-rater learning to extract a cleaner label from the multiple ``noisy'' labels available per training sample; 2) multi-modal learning to leverage the presence of T1/T2 MRI images for training and testing; and 3) human-AI collaboration to build a system that leverages the predictions from clinicians and the AI model to provide more accurate classification than standalone clinicians and AI models. Presenting results on the multi-rater T1/T2 MRI endometriosis dataset that we collected to validate our methodology, the proposed HAICOMM model outperforms an ensemble of clinicians, noisy-label learning models, and multi-rater learning methods.
- Abstract(参考訳): 子宮内膜症は、出生時に女性に割り当てられた患者の約10%に影響を及ぼし、診断と管理が困難である。
診断は通常、腹腔鏡下手術またはT1/T2MRI画像の解析を用いて、疾患の様々な徴候を同定する。
子宮内膜症の診断上の重要な兆候は、ダグラスのポーチ(POD)の消滅である。
しかし、経験豊富な臨床医でさえ、信頼性の高いAIモデルのトレーニングを複雑にするMRI画像からPODを正確に分類することに苦労している。
本稿では, 上記の課題に対処するために, \underline{H}uman-\underline{AI} \underline{Co}llaborative \underline{M}ulti-modal \underline{M}ulti-rater Learning (HAICOMM)手法を提案する。
HAICOMMは、この問題の3つの重要な側面を探求する最初の方法である。
1) トレーニングサンプル毎に利用可能な複数の`noisy'ラベルから、よりクリーンなラベルを抽出するマルチラター学習
2)T1/T2MRI画像のトレーニング・テストへの活用のためのマルチモーダル学習
3) 臨床医とAIモデルからの予測を活用して、スタンドアロンの臨床医やAIモデルよりも正確な分類を提供するシステムを構築する。
提案手法を検証するために収集したマルチレータT1/T2MRI子宮内膜症データセットの結果から,提案したHAICOMMモデルは,臨床医,ノイズラベル学習モデル,マルチレータ学習手法のアンサンブルよりも優れていた。
関連論文リスト
- Two-Stage Deep Learning Framework for Quality Assessment of Left Atrial
Late Gadolinium Enhanced MRI Images [0.22585387137796725]
LGE-MRI画像の自動診断品質評価のための2段階のディープラーニング手法を提案する。
本発明の方法は、関連する領域にフォーカスする左心房検出器と、診断品質を評価するディープネットワークとを含む。
論文 参考訳(メタデータ) (2023-10-13T01:27:36Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware Prostate Cancer Classification [42.75911994044675]
前立腺MRIの非対位画像翻訳のための新しいアプローチと臨床的に重要なPCaを分類するための不確実性認識トレーニングアプローチを提案する。
提案手法では,無ペアの3.0T多パラメータ前立腺MRIを1.5Tに翻訳し,利用可能なトレーニングデータを増強する。
実験の結果,提案手法は,従来の研究に比べてAUC(Area Under ROC Curve)を20%以上改善することがわかった。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - SpineOne: A One-Stage Detection Framework for Degenerative Discs and
Vertebrae [54.751251046196494]
SpineOneと呼ばれる一段階検出フレームワークを提案し、MRIスライスから変性椎骨と椎骨を同時に局在化・分類する。
1)キーポイントの局所化と分類を促進するためのキーポイント・ヒートマップの新しい設計、2)ディスクと脊椎の表現をよりよく区別するためのアテンション・モジュールの使用、3)後期訓練段階における複数の学習目標を関連付けるための新しい勾配誘導客観的アソシエーション機構。
論文 参考訳(メタデータ) (2021-10-28T12:59:06Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z) - Automatic Assessment of Alzheimer's Disease Diagnosis Based on Deep
Learning Techniques [111.165389441988]
本研究では, MRI(sagittal magnetic resonance images)における疾患の存在を自動的に検出するシステムを開発する。
矢状面MRIは一般的には使われていないが、この研究は、少なくとも、ADを早期に同定する他の平面からのMRIと同じくらい効果があることを証明した。
本研究は,これらの分野でDLモデルを構築できることを実証する一方,TLは少ない例でタスクを完了するための必須のツールである。
論文 参考訳(メタデータ) (2021-05-18T11:37:57Z) - Joint Registration and Segmentation via Multi-Task Learning for Adaptive
Radiotherapy of Prostate Cancer [3.0929226049096217]
マルチタスク学習設定による共同問題として登録とセグメンテーションを定式化する。
このアプローチは、前立腺癌に対する適応画像誘導放射線療法の文脈で検討する。
論文 参考訳(メタデータ) (2021-05-05T02:45:49Z) - Automatic Breast Lesion Classification by Joint Neural Analysis of
Mammography and Ultrasound [1.9814912982226993]
そこで本研究では,乳がん病変を各乳腺造影像および超音波画像から分類する深層学習法を提案する。
提案されたアプローチは、GoogleNetアーキテクチャに基づいており、データのために2つのトレーニングステップで微調整されています。
AUCは0.94で、単一のモダリティで訓練された最先端のモデルより優れている。
論文 参考訳(メタデータ) (2020-09-23T09:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。