論文の概要: Self-Supervised Versus Supervised Training for Segmentation of Organoid
Images
- arxiv url: http://arxiv.org/abs/2311.11198v1
- Date: Sun, 19 Nov 2023 01:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 06:56:32.831167
- Title: Self-Supervised Versus Supervised Training for Segmentation of Organoid
Images
- Title(参考訳): オルガノイド画像のセグメンテーションのための自己監督型Versus監督訓練
- Authors: Asmaa Haja, Eric Brouwer and Lambert Schomaker
- Abstract要約: 大量の顕微鏡画像データセットがラベル付けされていないままであり、ディープラーニングアルゴリズムによる効果的な利用を妨げている。
自己教師付き学習(SSL)は、ラベルを必要とせずにメインタスクに類似したプリテキストタスクの下で固有の特徴を学習する、有望なソリューションである。
ResNet50 U-Netは、構造化類似度指数(Structure similarity Index Metric, SSIM)だけで、L1損失と組み合わせてSSIMを用いて、肝臓前駆体オルガノイドのイメージを拡張画像から復元する訓練が最初に行われた。
比較のために、同じU-Netアーキテクチャを使って、2つの教師付きモデルをトレーニングしました。
- 参考スコア(独自算出の注目度): 2.6242820867975127
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The process of annotating relevant data in the field of digital microscopy
can be both time-consuming and especially expensive due to the required
technical skills and human-expert knowledge. Consequently, large amounts of
microscopic image data sets remain unlabeled, preventing their effective
exploitation using deep-learning algorithms. In recent years it has been shown
that a lot of relevant information can be drawn from unlabeled data.
Self-supervised learning (SSL) is a promising solution based on learning
intrinsic features under a pretext task that is similar to the main task
without requiring labels. The trained result is transferred to the main task -
image segmentation in our case. A ResNet50 U-Net was first trained to restore
images of liver progenitor organoids from augmented images using the Structural
Similarity Index Metric (SSIM), alone, and using SSIM combined with L1 loss.
Both the encoder and decoder were trained in tandem. The weights were
transferred to another U-Net model designed for segmentation with frozen
encoder weights, using Binary Cross Entropy, Dice, and Intersection over Union
(IoU) losses. For comparison, we used the same U-Net architecture to train two
supervised models, one utilizing the ResNet50 encoder as well as a simple CNN.
Results showed that self-supervised learning models using a 25\% pixel drop or
image blurring augmentation performed better than the other augmentation
techniques using the IoU loss. When trained on only 114 images for the main
task, the self-supervised learning approach outperforms the supervised method
achieving an F1-score of 0.85, with higher stability, in contrast to an F1=0.78
scored by the supervised method. Furthermore, when trained with larger data
sets (1,000 images), self-supervised learning is still able to perform better,
achieving an F1-score of 0.92, contrasting to a score of 0.85 for the
supervised method.
- Abstract(参考訳): デジタル顕微鏡の分野における関連データの注釈付けのプロセスは、必要な技術スキルと人間の専門知識により、時間と費用の両方がかかる。
結果として、大量の顕微鏡画像データセットがラベル付けされず、ディープラーニングアルゴリズムによる効果的な利用を妨げている。
近年、ラベルのないデータから多くの関連情報が引き出せることが示されている。
自己教師付き学習(SSL)は、ラベルを必要とせずにメインタスクに類似したプリテキストタスクの下で固有の特徴を学習する、有望なソリューションである。
トレーニングされた結果は、我々の場合のメインタスクイメージセグメンテーションに転送されます。
ResNet50 U-Netは、構造化類似度指数(Structure similarity Index Metric, SSIM)だけで、L1損失と組み合わせてSSIMを用いて、肝臓前駆体オルガノイドのイメージを拡張画像から復元する訓練が最初に行われた。
エンコーダとデコーダの両方がタンデムで訓練された。
重みは、凍ったエンコーダ重みを持つセグメンテーションのために設計された別のU-Netモデルに転送され、Binary Cross Entropy、Dice、Intersection over Union (IoU)損失を用いた。
比較のために、私たちは同じu-netアーキテクチャを使用して、2つの教師付きモデルをトレーニングしました。
その結果,25\%のドロップを用いた自己教師型学習モデルや画像のぼかし増強法は,IoU損失を用いた他の強化法よりも優れていた。
メインタスクの114画像のみを訓練すると、自己教師付き学習アプローチは、教師付き方法が得点したf1=0.78と対照的に、f1-scoreを0.85で達成する教師付き手法を高い安定性で上回る。
さらに、より大きなデータセット(1000画像)でトレーニングすると、自己教師あり学習は依然として良くなり、教師あり方法のスコア 0.85と対照的に、f1スコア 0.92 となる。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - DeSTSeg: Segmentation Guided Denoising Student-Teacher for Anomaly
Detection [18.95747313320397]
本稿では,教師ネットワーク,学生エンコーダ・デコーダ,セグメンテーションネットワークを1つのフレームワークに統合したDeSTSegと呼ばれる改良モデルを提案する。
画像レベルのAUCは98.6%,画素レベルの平均精度は75.8%,インスタンスレベルの平均精度は76.4%である。
論文 参考訳(メタデータ) (2022-11-21T10:01:03Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Corrupted Image Modeling for Self-Supervised Visual Pre-Training [103.99311611776697]
自己教師型視覚前訓練のためのCIM(Corrupted Image Modeling)を提案する。
CIMは、小さなトレーニング可能なBEiTを備えた補助発電機を使用して、人工マスクトークンを使用する代わりに入力イメージを破損させる。
事前トレーニング後、エンハンサーは下流タスク用の高容量ビジュアルエンコーダとして使用できる。
論文 参考訳(メタデータ) (2022-02-07T17:59:04Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Self supervised contrastive learning for digital histopathology [0.0]
我々はSimCLRと呼ばれる対照的な自己教師型学習手法を用いて、自然シーン画像の最先端結果を得た。
異なる種類の染色特性と分解特性とを組み合わせることで,学習した特徴の質が向上することがわかった。
学習した機能に基づいてトレーニングされた線形分類器は、デジタル病理学データセットで事前トレーニングされたネットワークが、ImageNet事前トレーニングされたネットワークよりも優れたパフォーマンスを示すことを示している。
論文 参考訳(メタデータ) (2020-11-27T19:18:45Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。