論文の概要: Self Supervised Lesion Recognition For Breast Ultrasound Diagnosis
- arxiv url: http://arxiv.org/abs/2204.08477v1
- Date: Mon, 18 Apr 2022 16:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 14:44:35.651563
- Title: Self Supervised Lesion Recognition For Breast Ultrasound Diagnosis
- Title(参考訳): 乳房超音波診断のための自己監督型病変認識
- Authors: Yuanfan Guo, Canqian Yang, Tiancheng Lin, Chunxiao Li, Rui Zhang, Yi
Xu
- Abstract要約: 良性/良性分類タスクと病変認識(LR)を補完するマルチタスクフレームワークを提案する。
具体的には、LRタスクは対照的な学習を用いて、同じ病変の複数のビューを抽出し、異なる病変のビューを再現する表現を促進する。
実験により,提案したマルチタスクフレームワークは,良性/良性分類の性能を高めることが示された。
- 参考スコア(独自算出の注目度): 14.961717874372567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous deep learning based Computer Aided Diagnosis (CAD) system treats
multiple views of the same lesion as independent images. Since an ultrasound
image only describes a partial 2D projection of a 3D lesion, such paradigm
ignores the semantic relationship between different views of a lesion, which is
inconsistent with the traditional diagnosis where sonographers analyze a lesion
from at least two views. In this paper, we propose a multi-task framework that
complements Benign/Malignant classification task with lesion recognition (LR)
which helps leveraging relationship among multiple views of a single lesion to
learn a complete representation of the lesion. To be specific, LR task employs
contrastive learning to encourage representation that pulls multiple views of
the same lesion and repels those of different lesions. The task therefore
facilitates a representation that is not only invariant to the view change of
the lesion, but also capturing fine-grained features to distinguish between
different lesions. Experiments show that the proposed multi-task framework
boosts the performance of Benign/Malignant classification as two sub-tasks
complement each other and enhance the learned representation of ultrasound
images.
- Abstract(参考訳): 従来のdeep learning based computer aided diagnostic (cad)システムは、同一病変の複数のビューを独立した画像として扱う。
超音波画像は3次元病変の部分的な2次元投影のみを記述するため、このパラダイムは病変の異なる視点間の意味関係を無視するものであり、超音波撮影者が少なくとも2つの視点から病変を解析する従来の診断と矛盾する。
本稿では,良性/良性分類タスクと病変認識(LR)を補完するマルチタスクフレームワークを提案する。
具体的には、LRタスクは対照的な学習を用いて、同じ病変の複数のビューを抽出し、異なる病変のビューを再現する表現を促進する。
したがって、このタスクは、病変のビュー変化に不変であるだけでなく、異なる病変を区別するためにきめ細かい特徴をキャプチャーする表現を促進する。
提案するマルチタスクフレームワークは, 2つのサブタスクが互いに補完し, 学習した超音波画像の表現能力を高めるため, 良性/良性分類の性能を高める。
関連論文リスト
- QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - Mining Gaze for Contrastive Learning toward Computer-Assisted Diagnosis [61.089776864520594]
医用画像のテキストレポートの代替としてアイトラッキングを提案する。
医用画像を読み,診断する際に放射線科医の視線を追跡することにより,その視覚的注意と臨床的理由を理解することができる。
対照的な学習フレームワークのためのプラグイン・アンド・プレイモジュールとして,McGIP (McGIP) を導入した。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Unified Medical Image Pre-training in Language-Guided Common Semantic Space [39.61770813855078]
我々はUnified Medical Image Pre-Trainingフレームワーク(UniMedI)を提案する。
UniMedIは、診断レポートを一般的な意味空間として使用し、医療画像の多様なモダリティの統一表現を作成する。
10種類のデータセットにまたがる2次元画像と3次元画像の性能評価を行った。
論文 参考訳(メタデータ) (2023-11-24T22:01:12Z) - GEMTrans: A General, Echocardiography-based, Multi-Level Transformer
Framework for Cardiovascular Diagnosis [14.737295160286939]
視覚ベースの機械学習(ML)手法は、検証の二次レイヤとして人気を集めている。
本稿では,説明可能性を提供する汎用のマルチレベルトランス(GEMTrans)フレームワークを提案する。
大動脈狭窄症(AS)の重症度検出と排卵率(EF)の2つの重要な課題を考慮し,本フレームワークの柔軟性を示す。
論文 参考訳(メタデータ) (2023-08-25T07:30:18Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Anatomy-Aware Contrastive Representation Learning for Fetal Ultrasound [17.91546880972773]
解剖学的認識型コントラスト学習(AWCL)による医用画像の視覚的表現の改善を提案する。
AWCLは解剖情報を組み込んで、正/負のペアサンプリングを対照的な学習方法で増強する。
大規模な胎児超音波データセットを用いた実験では、3つの臨床的下流課題によく伝達される表現の学習に有効であることが示された。
論文 参考訳(メタデータ) (2022-08-22T22:49:26Z) - Stain based contrastive co-training for histopathological image analysis [61.87751502143719]
本稿では,ヒストリボリューション画像の分類のための,新しい半教師付き学習手法を提案する。
我々は、半教師付き学習フレームワークを作成するために、パッチレベルのアノテーションと、新しいコトレーニング損失を併用した強力な監視を採用する。
透明細胞腎細胞および前立腺癌に対するアプローチを評価し,最先端の半教師あり学習法の改善を実証した。
論文 参考訳(メタデータ) (2022-06-24T22:25:31Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Cross Chest Graph for Disease Diagnosis with Structural Relational
Reasoning [2.7148274921314615]
X線画像のコンピュータ診断において位置病変は重要である。
一般に弱教師付き手法はX線像の特性を考慮できなかった。
自動病変検出の性能を向上させるCross-chest Graph (CCG)を提案する。
論文 参考訳(メタデータ) (2021-01-22T08:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。