論文の概要: Semi-Supervised Multimodal Multi-Instance Learning for Aortic Stenosis
Diagnosis
- arxiv url: http://arxiv.org/abs/2403.06024v1
- Date: Sat, 9 Mar 2024 22:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 09:12:07.070590
- Title: Semi-Supervised Multimodal Multi-Instance Learning for Aortic Stenosis
Diagnosis
- Title(参考訳): 大動脈狭窄診断のための半教師付きマルチモーダルマルチインスタンスラーニング
- Authors: Zhe Huang, Xiaowei Yu, Benjamin S. Wessler and Michael C. Hughes
- Abstract要約: SMMIL(Semi-supervised Multimodal Multiple-Instance Learning)は、心疾患の自動解釈のための新しいディープラーニングフレームワークである。
SMMILは、スペクトルドップラーと2Dシネループの2つの入力モードからの情報を組み合わせて、研究レベルのAS診断を生成することができる。
- 参考スコア(独自算出の注目度): 6.356639194509079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated interpretation of ultrasound imaging of the heart (echocardiograms)
could improve the detection and treatment of aortic stenosis (AS), a deadly
heart disease. However, existing deep learning pipelines for assessing AS from
echocardiograms have two key limitations. First, most methods rely on limited
2D cineloops, thereby ignoring widely available Doppler imaging that contains
important complementary information about pressure gradients and blood flow
abnormalities associated with AS. Second, obtaining labeled data is difficult.
There are often far more unlabeled echocardiogram recordings available, but
these remain underutilized by existing methods. To overcome these limitations,
we introduce Semi-supervised Multimodal Multiple-Instance Learning (SMMIL), a
new deep learning framework for automatic interpretation for structural heart
diseases like AS. When deployed, SMMIL can combine information from two input
modalities, spectral Dopplers and 2D cineloops, to produce a study-level AS
diagnosis. During training, SMMIL can combine a smaller labeled set and an
abundant unlabeled set of both modalities to improve its classifier.
Experiments demonstrate that SMMIL outperforms recent alternatives at 3-level
AS severity classification as well as several clinically relevant AS detection
tasks.
- Abstract(参考訳): 心臓の超音波画像(心エコー図)の自動解釈は、致命的な心臓疾患である大動脈狭窄(as)の検出と治療を改善する可能性がある。
しかし、心エコー図からASを評価するための既存のディープラーニングパイプラインには2つの重要な制限がある。
第一に、ほとんどの方法は限られた2dシネループに依存しており、圧力勾配と血流異常に関する重要な補完情報を含む広く利用可能なドップラーイメージングを無視している。
第2に,ラベル付きデータの取得が困難である。
しばしば、ラベルのない心エコー記録が利用可能であるが、既存の方法では使われていない。
これらの制約を克服するために,ASのような構造心疾患の自動解釈のための新しいディープラーニングフレームワークであるSMMIL(Semi-supervised Multimodal Multiple-Instance Learning)を導入する。
SMMILは、2つの入力モード、スペクトルドップラーと2Dシネループの情報を組み合わせて、研究レベルのAS診断を生成する。
トレーニング中、SMMILはより小さなラベル付きセットと豊富なラベル付き両方のモダリティセットを組み合わせて分類器を改善することができる。
実験により、SMMILは最近の3段階のAS重症度分類において、いくつかの臨床関連AS検出タスクよりも優れていることが示された。
関連論文リスト
- Ultrasound Nodule Segmentation Using Asymmetric Learning with Simple Clinical Annotation [25.459627476201646]
自動結節分割法における超音波診断から直接, 簡単なアスペクト比アノテーションを用いることを提案する。
アスペクト比アノテーションを2種類の擬似ラベルで拡張することにより、非対称学習フレームワークを開発する。
臨床的に収集した2つの超音波データセット(甲状腺と乳房)を用いた実験により,提案手法の優れた性能が示された。
論文 参考訳(メタデータ) (2024-04-23T09:07:04Z) - Detecting Heart Disease from Multi-View Ultrasound Images via Supervised Attention Multiple Instance Learning [5.201499435914216]
大動脈狭窄症 (Aortic stenosis, AS) は変性弁の状態であり、かなりの死亡率と死亡率を引き起こす。
AS検出に対する従来のアプローチでは、画像間の非フレキシブル平均に依存するため、精度が不十分であった。
2つの重要な方法論的革新とともに、新しいエンドツーエンドのMILアプローチに貢献する。
論文 参考訳(メタデータ) (2023-05-25T18:22:12Z) - MMA-RNN: A Multi-level Multi-task Attention-based Recurrent Neural
Network for Discrimination and Localization of Atrial Fibrillation [1.8037893225125925]
本稿では,多段階マルチタスク・アテンションに基づくリカレントニューラルネットワークを提案する。
このモデルは、情報インタラクションを強化し、エラーの蓄積を減らすためのエンドツーエンドフレームワークとして設計されている。
論文 参考訳(メタデータ) (2023-02-07T19:59:55Z) - Distance-based detection of out-of-distribution silent failures for
Covid-19 lung lesion segmentation [0.8200989595956418]
ディープラーニングモデルは、アウト・オブ・ディストリビューションデータにサイレントに失敗するため、臨床ルーチンに信頼されていない。
特徴空間におけるマハラノビス距離を利用する軽量なOOD検出法を提案する。
胸部CT像の分布変化とMRIの2つの応用について検討した。
論文 参考訳(メタデータ) (2022-08-05T15:05:23Z) - Medical Instrument Segmentation in 3D US by Hybrid Constrained
Semi-Supervised Learning [62.13520959168732]
3DUSにおける楽器セグメンテーションのための半教師付き学習フレームワークを提案する。
SSL学習を実現するため、Dual-UNetが提案されている。
提案手法は,Diceの約68.6%-69.1%,推定時間約1秒を実現している。
論文 参考訳(メタデータ) (2021-07-30T07:59:45Z) - Self-Supervised Multi-Modal Alignment for Whole Body Medical Imaging [70.52819168140113]
我々は、英国バイオバンクの2万名以上の被験者のデータセットを使用し、全体Dixon法磁気共鳴法(MR)スキャンとデュアルエネルギーX線吸収率法(DXA)スキャンを併用した。
マルチモーダル画像マッチングコントラストフレームワークを導入し、同一対象の異なるモダリティスキャンを高精度にマッチングすることができる。
適応がなければ、この対照的なトレーニングステップで学習した対応が、自動クロスモーダルスキャン登録の実行に利用できることを示す。
論文 参考訳(メタデータ) (2021-07-14T12:35:05Z) - Federated Deep AUC Maximization for Heterogeneous Data with a Constant
Communication Complexity [77.78624443410216]
異種胸部データ検出のための改良型FDAMアルゴリズムを提案する。
本研究は,提案アルゴリズムの通信が機械数に強く依存し,精度レベルにも強く依存していることを示す。
FDAMアルゴリズムのベンチマークデータセットと、異なる組織の医療用胸部X線画像に対する効果を実験により実証した。
論文 参考訳(メタデータ) (2021-02-09T04:05:19Z) - Semi-Supervised Active Learning for COVID-19 Lung Ultrasound
Multi-symptom Classification [13.878896181984262]
本稿では,複雑な特徴をモデル化し,ラベリングコストを削減するため,TSAL法を提案する。
そこで本研究では,多症状多ラベル(MSML)分類ネットワークを提案し,肺症状の識別的特徴について検討した。
678本の動画から6,836枚の画像が採取された71人の臨床患者を含む、COVID19-LUSMSという新しい肺データセットが構築されている。
論文 参考訳(メタデータ) (2020-09-09T10:45:34Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z) - Detecting Pancreatic Ductal Adenocarcinoma in Multi-phase CT Scans via
Alignment Ensemble [77.5625174267105]
膵管腺癌(PDAC)は最も致命的ながんの1つである。
複数のフェーズは単一のフェーズよりも多くの情報を提供するが、それらは整列せず、テクスチャにおいて不均一である。
PDAC検出性能を高めるために,これらすべてのアライメントのアンサンブルを提案する。
論文 参考訳(メタデータ) (2020-03-18T19:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。