論文の概要: Exploring the Utility of Self-Supervised Pretraining Strategies for the
Detection of Absent Lung Sliding in M-Mode Lung Ultrasound
- arxiv url: http://arxiv.org/abs/2304.02724v1
- Date: Wed, 5 Apr 2023 20:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 16:10:27.308005
- Title: Exploring the Utility of Self-Supervised Pretraining Strategies for the
Detection of Absent Lung Sliding in M-Mode Lung Ultrasound
- Title(参考訳): M-Mode Lung UltrasoundにおけるAbsent Lung Sliding検出のための自己監督事前訓練法の有用性の検討
- Authors: Blake VanBerlo, Brian Li, Alexander Wong, Jesse Hoey, Robert Arntfield
- Abstract要約: セルフ教師付きプレトレーニングは、医用画像における教師付き学習タスクのパフォーマンスを向上させるために観察されている。
本研究は,Mモード肺超音波画像における肺スライディング分類の下流タスクの微調整を指導する前,自己指導型プレトレーニングの有用性について検討した。
- 参考スコア(独自算出の注目度): 72.39040113126462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised pretraining has been observed to improve performance in
supervised learning tasks in medical imaging. This study investigates the
utility of self-supervised pretraining prior to conducting supervised
fine-tuning for the downstream task of lung sliding classification in M-mode
lung ultrasound images. We propose a novel pairwise relationship that couples
M-mode images constructed from the same B-mode image and investigate the
utility of data augmentation procedure specific to M-mode lung ultrasound. The
results indicate that self-supervised pretraining yields better performance
than full supervision, most notably for feature extractors not initialized with
ImageNet-pretrained weights. Moreover, we observe that including a vast volume
of unlabelled data results in improved performance on external validation
datasets, underscoring the value of self-supervision for improving
generalizability in automatic ultrasound interpretation. To the authors' best
knowledge, this study is the first to characterize the influence of
self-supervised pretraining for M-mode ultrasound.
- Abstract(参考訳): 医療画像における教師付き学習タスクの性能を向上させるために,自己教師付き事前学習が観察されている。
本研究は,Mモード肺超音波画像における肺スライディング分類の下流タスクに対する教師付き微調整前における自己指導型プレトレーニングの有用性について検討した。
我々は,同じBモード画像から構築したMモード画像をペアリングする新しいペアワイズ関係を提案し,Mモード肺超音波に特有のデータ拡張方法の有用性について検討する。
以上の結果から, 自己指導型事前訓練では, フルインスペクションよりも優れた性能が得られることが示唆された。
さらに,大量の未ラベルデータを含むと,外部の検証データセットの性能が向上し,自動超音波解釈における一般化性向上のための自己監督の価値が強調される。
本研究は,Mモード超音波に対する自己教師付きプレトレーニングの影響を,著者の知る限り初めて評価したものである。
関連論文リスト
- Multi-organ Self-supervised Contrastive Learning for Breast Lesion
Segmentation [0.0]
本稿では,臓器関連目標タスクに適した事前学習モデルとして,多臓器データセットを用いる。
対象は超音波画像における乳腺腫瘍のセグメンテーションである。
その結果,従来のコントラスト学習事前学習は,教師付きベースラインアプローチに比べて性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-21T20:29:21Z) - Self-Supervised Pretraining Improves Performance and Inference
Efficiency in Multiple Lung Ultrasound Interpretation Tasks [65.23740556896654]
肺超音波検査における複数分類課題に適用可能なニューラルネットワーク特徴抽出器を,自己指導型プレトレーニングで作成できるかどうかを検討した。
3つの肺超音波のタスクを微調整すると、事前訓練されたモデルにより、各テストセットの受信操作曲線(AUC)における平均クロスタスク面積は、それぞれ0.032と0.061に改善された。
論文 参考訳(メタデータ) (2023-09-05T21:36:42Z) - A Survey of the Impact of Self-Supervised Pretraining for Diagnostic
Tasks with Radiological Images [71.26717896083433]
自己教師付き事前学習は,伝達学習における特徴表現の改善に有効であることが観察されている。
本総説ではX線, CT, 磁気共鳴, 超音波画像における使用法について概説する。
論文 参考訳(メタデータ) (2023-09-05T19:45:09Z) - Revisiting the Transferability of Supervised Pretraining: an MLP
Perspective [78.51258076624046]
教師なし事前学習手法の最近の進歩は、教師付きプレトレーニング手法よりも優れた転送性能を示す。
本稿では,多層パーセプトロン(MLP)の観点から,教師なしと教師なしの事前学習間の伝達可能性ギャップの理解に新たな光を当てる。
また,プロジェクタは,教師なし事前訓練法よりも教師なし事前訓練法の伝達性を向上させる重要な要因であることを明らかにした。
論文 参考訳(メタデータ) (2021-12-01T13:47:30Z) - How Transferable Are Self-supervised Features in Medical Image
Classification Tasks? [0.7734726150561086]
トランスファーラーニングは、医学分類タスクにおけるラベル付きデータの欠如を軽減するための標準的プラクティスとなっている。
自己教師付き事前訓練モデルでは、教師付きモデルよりもリッチな埋め込みが得られる。
Dynamic Visual Meta-Embedding (DVME)は、複数のモデルから事前学習された埋め込みを融合するエンドツーエンドのトランスファー学習アプローチである。
論文 参考訳(メタデータ) (2021-08-23T10:39:31Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Evaluating the Robustness of Self-Supervised Learning in Medical Imaging [57.20012795524752]
自己監督は、小さな注釈付きデータセット上でターゲットタスクを訓練する際の効果的な学習戦略であることを示した。
本研究では,自己監視学習によって訓練されたネットワークが,医療画像の文脈における完全監視学習と比較して,堅牢性と汎用性に優れていることを示した。
論文 参考訳(メタデータ) (2021-05-14T17:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。