論文の概要: Leveraging Self-Supervised Learning for Fetal Cardiac Planes Classification using Ultrasound Scan Videos
- arxiv url: http://arxiv.org/abs/2407.21738v1
- Date: Wed, 31 Jul 2024 16:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 17:31:11.899742
- Title: Leveraging Self-Supervised Learning for Fetal Cardiac Planes Classification using Ultrasound Scan Videos
- Title(参考訳): 超音波スキャン映像を用いた胎児心臓平面分類における自己監督学習の活用
- Authors: Joseph Geo Benjamin, Mothilal Asokan, Amna Alhosani, Hussain Alasmawi, Werner Gerhard Diehl, Leanne Bricker, Karthik Nandakumar, Mohammad Yaqub,
- Abstract要約: 自己教師付き学習(SSL)メソッドは、限られた注釈付きデータで状況に対処できるので人気がある。
本研究では, 再構成, コントラスト損失, 蒸留, 情報理論に基づく7つのSSL手法について検討し, 大規模な米国データセット上で広く評価する。
我々の第一の観察は、SSLトレーニングでは、データセットの分散がサイズよりも重要であることを示している。
- 参考スコア(独自算出の注目度): 4.160910038127896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) methods are popular since they can address situations with limited annotated data by directly utilising the underlying data distribution. However, the adoption of such methods is not explored enough in ultrasound (US) imaging, especially for fetal assessment. We investigate the potential of dual-encoder SSL in utilizing unlabelled US video data to improve the performance of challenging downstream Standard Fetal Cardiac Planes (SFCP) classification using limited labelled 2D US images. We study 7 SSL approaches based on reconstruction, contrastive loss, distillation, and information theory and evaluate them extensively on a large private US dataset. Our observations and findings are consolidated from more than 500 downstream training experiments under different settings. Our primary observation shows that for SSL training, the variance of the dataset is more crucial than its size because it allows the model to learn generalisable representations, which improve the performance of downstream tasks. Overall, the BarlowTwins method shows robust performance, irrespective of the training settings and data variations, when used as an initialisation for downstream tasks. Notably, full fine-tuning with 1% of labelled data outperforms ImageNet initialisation by 12% in F1-score and outperforms other SSL initialisations by at least 4% in F1-score, thus making it a promising candidate for transfer learning from US video to image data.
- Abstract(参考訳): 自己教師付き学習(SSL)メソッドは、基礎となるデータ分散を直接利用することで、限られた注釈付きデータで状況に対処できるため、人気がある。
しかし、超音波(US)イメージングでは、特に胎児評価において、そのような方法の採用が十分に検討されていない。
2次元US画像のラベル付けによる下流標準胎児心臓平面(SFCP)分類の性能向上を図るため,非ラベル付きUSビデオデータを利用したデュアルエンコーダSSLの可能性を検討する。
本研究では, 再構成, コントラスト損失, 蒸留, 情報理論に基づく7つのSSL手法について検討し, 大規模な米国データセット上で広く評価する。
我々は,異なる条件下で500以上の下流トレーニング実験から,観測と知見を統合した。
我々の第一の観察は、SSLトレーニングでは、データセットの分散はそのサイズよりも重要であり、なぜならモデルが一般化可能な表現を学習でき、下流タスクのパフォーマンスが向上するからである。
全体として、BarlowTwinsメソッドは、下流タスクの初期化として使用する場合、トレーニング設定やデータバリエーションに関係なく、堅牢なパフォーマンスを示す。
特に、ラベル付きデータの1%による完全な微調整は、ImageNetの初期化をF1スコアで12%上回り、他のSSLの初期化をF1スコアで少なくとも4%上回る。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - Self-supervised learning for skin cancer diagnosis with limited training data [0.196629787330046]
自己教師付き学習(SSL)は、限られたトレーニングデータを持つシナリオに対するImageNetの標準教師付き事前トレーニングの代替である。
textitfurther SSL をタスク固有のデータセットで事前トレーニングし、その実装は教師あり転送学習によって動機づけられる。
タスク固有のデータに対するより最小限のSSL事前トレーニングは、限られたラベル付きデータによる医療画像分類タスクにおいて、ImageNet上の大規模なSSL事前トレーニングと同じくらい効果的である。
論文 参考訳(メタデータ) (2024-01-01T08:11:38Z) - Benchmarking Self-Supervised Learning on Diverse Pathology Datasets [10.868779327544688]
自己教師付き学習は、ラベルのないデータを活用する効果的な方法であることが示されている。
我々は、病理画像データに基づいてSSL事前トレーニングを行う最大規模の研究を行う。
核インスタンスセグメンテーションの課題に対してSSLを初めて適用する。
論文 参考訳(メタデータ) (2022-12-09T06:38:34Z) - SSiT: Saliency-guided Self-supervised Image Transformer for Diabetic
Retinopathy Grading [2.0790896742002274]
基礎画像から評価した糖尿病網膜症に対して, SSiT (Salliency-Guided Self-Supervised Image Transformer) が提案されている。
我々は、ドメイン固有の事前知識による自己教師付き事前学習の指導を目標として、SSLにサリエンシマップを新たに導入する。
論文 参考訳(メタデータ) (2022-10-20T02:35:26Z) - Towards Realistic Semi-Supervised Learning [73.59557447798134]
オープンワールド環境でSSLに取り組み、未知のクラスと未知のクラスを同時に分類する新しい手法を提案する。
我々のアプローチは、既存の最先端の7つのデータセットよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-07-05T19:04:43Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - STAR: Noisy Semi-Supervised Transfer Learning for Visual Classification [0.8662293148437356]
半教師付き学習(SSL)は、大規模なラベルなしデータの活用に有効であることが証明されている。
最近のSSLメソッドは、数十億のスケールでラベル付けされていないイメージデータに依存している。
本稿では,移動学習と自己学習を統合した半教師あり半教師ありトランスファー学習を提案する。
論文 参考訳(メタデータ) (2021-08-18T19:35:05Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。