論文の概要: Anatomy-Aware Contrastive Representation Learning for Fetal Ultrasound
- arxiv url: http://arxiv.org/abs/2208.10642v1
- Date: Mon, 22 Aug 2022 22:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:43:12.699626
- Title: Anatomy-Aware Contrastive Representation Learning for Fetal Ultrasound
- Title(参考訳): 胎児超音波の解剖学的・認識的コントラスト表現学習
- Authors: Zeyu Fu, Jianbo Jiao, Robail Yasrab, Lior Drukker, Aris T.
Papageorghiou and J. Alison Noble
- Abstract要約: 解剖学的認識型コントラスト学習(AWCL)による医用画像の視覚的表現の改善を提案する。
AWCLは解剖情報を組み込んで、正/負のペアサンプリングを対照的な学習方法で増強する。
大規模な胎児超音波データセットを用いた実験では、3つの臨床的下流課題によく伝達される表現の学習に有効であることが示された。
- 参考スコア(独自算出の注目度): 17.91546880972773
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Self-supervised contrastive representation learning offers the advantage of
learning meaningful visual representations from unlabeled medical datasets for
transfer learning. However, applying current contrastive learning approaches to
medical data without considering its domain-specific anatomical characteristics
may lead to visual representations that are inconsistent in appearance and
semantics. In this paper, we propose to improve visual representations of
medical images via anatomy-aware contrastive learning (AWCL), which
incorporates anatomy information to augment the positive/negative pair sampling
in a contrastive learning manner. The proposed approach is demonstrated for
automated fetal ultrasound imaging tasks, enabling the positive pairs from the
same or different ultrasound scans that are anatomically similar to be pulled
together and thus improving the representation learning. We empirically
investigate the effect of inclusion of anatomy information with coarse- and
fine-grained granularity, for contrastive learning and find that learning with
fine-grained anatomy information which preserves intra-class difference is more
effective than its counterpart. We also analyze the impact of anatomy ratio on
our AWCL framework and find that using more distinct but anatomically similar
samples to compose positive pairs results in better quality representations.
Experiments on a large-scale fetal ultrasound dataset demonstrate that our
approach is effective for learning representations that transfer well to three
clinical downstream tasks, and achieves superior performance compared to
ImageNet supervised and the current state-of-the-art contrastive learning
methods. In particular, AWCL outperforms ImageNet supervised method by 13.8%
and state-of-the-art contrastive-based method by 7.1% on a cross-domain
segmentation task.
- Abstract(参考訳): 自己監督型コントラスト表現学習は、伝達学習のためのラベルのない医療データセットから有意義な視覚的表現を学習する利点を提供する。
しかし、現在の対照的な学習アプローチを、ドメイン固有の解剖学的特徴を考慮せずに医療データに適用すると、外観や意味論に矛盾する視覚的表現につながる可能性がある。
本稿では,解剖情報を組み込んだ解剖学的・認識型コントラスト学習(awcl)により,医用画像の視覚的表現を改善することを提案する。
提案手法は, 解剖学的に類似した同じ又は異なる超音波スキャンから正の対を抽出し, 表現学習を改善することを目的としている。
比較学習において,粗粒・細粒の粒度を有する解剖情報を包含する効果について実験的に検討し,クラス内差を保った微細な解剖情報の学習が,それよりも効果的であることを見出した。
また, 解剖学的比がAWCLフレームワークに与える影響を解析し, 解剖学的に類似した試料を用いて正のペアを構成することにより, より良い品質表現が得られることを示した。
大規模胎児超音波データセットを用いた実験により,本手法は3つの臨床下流課題によく移行する表現の学習に有効であることを示し,imagenet教師あり,現在最先端のコントラスト学習法と比較して優れた性能を得ることができた。
特に、AWCLはImageNetの教師あり手法を13.8%、最先端のコントラストベースの手法を7.1%上回る。
関連論文リスト
- Multi-organ Self-supervised Contrastive Learning for Breast Lesion
Segmentation [0.0]
本稿では,臓器関連目標タスクに適した事前学習モデルとして,多臓器データセットを用いる。
対象は超音波画像における乳腺腫瘍のセグメンテーションである。
その結果,従来のコントラスト学習事前学習は,教師付きベースラインアプローチに比べて性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-21T20:29:21Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - FAST-AID Brain: Fast and Accurate Segmentation Tool using Artificial
Intelligence Developed for Brain [0.8376091455761259]
ヒト脳の132領域への高速かつ正確なセグメンテーションのための新しい深層学習法を提案する。
提案モデルは、効率的なU-Netライクなネットワークと、異なるビューと階層関係の交差点の利点を利用する。
提案手法は,画像の事前処理や性能低下を伴わずに頭蓋骨や他の人工物を含む脳MRIデータに適用することができる。
論文 参考訳(メタデータ) (2022-08-30T16:06:07Z) - Semantic segmentation of multispectral photoacoustic images using deep
learning [53.65837038435433]
光音響イメージングは医療に革命をもたらす可能性がある。
この技術の臨床的翻訳には、高次元取得したデータを臨床的に関連性があり解釈可能な情報に変換する必要がある。
本稿では,多スペクトル光音響画像のセマンティックセグメンテーションに対する深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-20T09:33:55Z) - MedAug: Contrastive learning leveraging patient metadata improves
representations for chest X-ray interpretation [8.403653472706822]
患者メタデータを用いて、異なる画像の視点からポジティブなペアを選択する手法を開発しています。
胸部X線解釈の正の対を選択するための戦略を比較検討し, 同一患者, 画像研究, 側方性などを検討した。
すべての側面で同じ研究から同じ患者からのイメージを使用することを含む私達の最もよい性能の肯定的な対の選択戦略は平均AUCの3.4%そして14.4%の性能の増加を達成します。
論文 参考訳(メタデータ) (2021-02-21T18:39:04Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Context Matters: Graph-based Self-supervised Representation Learning for
Medical Images [21.23065972218941]
2段階の自己監督型表現学習目標を備えた新しいアプローチを紹介します。
グラフニューラルネットワークを用いて、異なる解剖学的領域間の関係を組み込む。
我々のモデルは、画像中の臨床的に関連のある領域を識別できる。
論文 参考訳(メタデータ) (2020-12-11T16:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。