論文の概要: MixCL: Pixel label matters to contrastive learning
- arxiv url: http://arxiv.org/abs/2203.02114v1
- Date: Fri, 4 Mar 2022 03:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:42:29.141737
- Title: MixCL: Pixel label matters to contrastive learning
- Title(参考訳): mixcl:pixelラベルはコントラスト学習に重要
- Authors: Jun Li, Quan Quan and S. Kevin Zhou
- Abstract要約: 医用画像解析のためのMixCL(Mixed Contrastive Learning)と呼ばれる新しい事前学習フレームワークを提案する。
MixCLは、画像のアイデンティティとピクセルラベルの両方を活用して、アイデンティティの一貫性、ラベルの一貫性、リコンストラクションの一貫性を共に維持することで、より良いモデリングを行う。
- 参考スコア(独自算出の注目度): 22.84281480316401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning and self-supervised techniques have gained prevalence in
computer vision for the past few years. It is essential for medical image
analysis, which is often notorious for its lack of annotations. Most existing
self-supervised methods applied in natural imaging tasks focus on designing
proxy tasks for unlabeled data. For example, contrastive learning is often
based on the fact that an image and its transformed version share the same
identity. However, pixel annotations contain much valuable information for
medical image segmentation, which is largely ignored in contrastive learning.
In this work, we propose a novel pre-training framework called Mixed
Contrastive Learning (MixCL) that leverages both image identities and pixel
labels for better modeling by maintaining identity consistency, label
consistency, and reconstruction consistency together. Consequently, thus
pre-trained model has more robust representations that characterize medical
images. Extensive experiments demonstrate the effectiveness of the proposed
method, improving the baseline by 5.28% and 14.12% in Dice coefficient when 5%
labeled data of Spleen and 15% of BTVC are used in fine-tuning, respectively.
- Abstract(参考訳): コントラスト学習と自己指導技術はここ数年,コンピュータビジョンにおいて普及している。
医用画像解析には必須であり、しばしば注釈の欠如で悪名高い。
自然画像タスクに適用される既存の自己監督手法は、ラベルなしデータのプロキシタスクの設計に重点を置いている。
例えば、対照的な学習はしばしば、画像とその変換されたバージョンが同一のアイデンティティを共有するという事実に基づいている。
しかし、pixelアノテーションには医療画像分割のための貴重な情報が多く含まれており、対照的な学習では無視されている。
本研究では,画像識別性と画素ラベルを併用した混合コントラスト学習(mixcl)と呼ばれる新しい事前学習フレームワークを提案する。
したがって、事前訓練されたモデルは、医学的イメージを特徴付けるより強固な表現を持つ。
Spleen のラベル付きデータ 5% と BTVC の 15% を微調整に用いた場合, ベースラインを5.28% と 14.12% のディス係数で改良し, 提案手法の有効性を実証した。
関連論文リスト
- GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - MIPR:Automatic Annotation of Medical Images with Pixel Rearrangement [7.39560318487728]
医用画像画素再構成(MIPR)という,別の角度からの注釈付きデータの欠如を解決する新しい手法を提案する。
MIPRは画像編集と擬似ラベル技術を組み合わせてラベル付きデータを取得する。
ISIC18での実験では,本手法による分節処理が医師のアノテーションと同等かそれ以上の効果があることが示されている。
論文 参考訳(メタデータ) (2022-04-22T05:54:14Z) - Semi-supervised Contrastive Learning for Label-efficient Medical Image
Segmentation [11.935891325600952]
そこで本研究では,限定的な画素単位のアノテーションを利用して,同じラベルの画素を埋め込み空間に集めるために,教師付き局所的コントラスト損失を提案する。
ラベル付きデータの量が異なるため、我々の手法は、最先端のコントラストベースの手法や他の半教師付き学習技術よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-09-15T16:23:48Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Positional Contrastive Learning for Volumetric Medical Image
Segmentation [13.086140606803408]
コントラストデータペアを生成するための新しい位置コントラスト学習フレームワークを提案する。
提案手法は,半教師付き設定と移動学習の両方において既存の手法と比較して,セグメンテーション性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T22:15:28Z) - Self-Ensembling Contrastive Learning for Semi-Supervised Medical Image
Segmentation [6.889911520730388]
限られたラベルを持つ医用画像セグメンテーションにおける半教師あり学習の性能向上を目指す。
我々は、ラベルのない画像に対照的な損失を与えることによって、特徴レベルで潜在表現を直接学習する。
我々はMRIとCTのセグメンテーションデータセットの実験を行い、提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-27T03:27:58Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Cascaded Robust Learning at Imperfect Labels for Chest X-ray
Segmentation [61.09321488002978]
不完全アノテーションを用いた胸部X線分割のための新しいカスケードロバスト学習フレームワークを提案する。
モデルは3つの独立したネットワークから成り,ピアネットワークから有用な情報を効果的に学習できる。
提案手法は,従来の手法と比較して,セグメント化タスクの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-05T15:50:16Z) - Contrastive Learning of Medical Visual Representations from Paired
Images and Text [38.91117443316013]
本研究では,自然発生した記述的ペアリングテキストを活用することで,医用視覚表現を学習するための教師なし戦略であるConVIRTを提案する。
この2つのモダリティ間の双方向のコントラスト的目的を通じて、ペア化されたテキストデータを用いて医療画像エンコーダを事前訓練する手法は、ドメインに依存しないため、追加の専門家による入力は不要である。
論文 参考訳(メタデータ) (2020-10-02T02:10:18Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。