論文の概要: Embedding-based Instance Segmentation of Microscopy Images
- arxiv url: http://arxiv.org/abs/2101.10033v1
- Date: Mon, 25 Jan 2021 12:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:12:13.666978
- Title: Embedding-based Instance Segmentation of Microscopy Images
- Title(参考訳): 顕微鏡画像の埋め込みに基づくInstance Segmentation
- Authors: Manan Lalit, Pavel Tomancak, Florian Jug
- Abstract要約: Nevenらの作品をもとに、エンドツーエンドのトレーニング可能なディープラーニングメソッドである EmbedSeg を紹介します。
彼らのアプローチでは、それぞれのピクセルを任意のインスタンスのcentroidに埋め込むが、embedsegでは、生体オブジェクトの複雑な形状に動機づけられている。
組込み型インスタンスセグメンテーションは,様々な顕微鏡データセットの最先端手法と比較して,競合的な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 8.516639438995785
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automatic detection and segmentation of objects in microscopy images is
important for many biological applications. In the domain of natural images,
and in particular in the context of city street scenes, embedding-based
instance segmentation leads to high-quality results. Inspired by this line of
work, we introduce EmbedSeg, an end-to-end trainable deep learning method based
on the work by Neven et al. While their approach embeds each pixel to the
centroid of any given instance, in EmbedSeg, motivated by the complex shapes of
biological objects, we propose to use the medoid instead. Additionally, we make
use of a test-time augmentation scheme, and show that both suggested
modifications improve the instance segmentation performance on biological
microscopy datasets notably. We demonstrate that embedding-based instance
segmentation achieves competitive results in comparison to state-of-the-art
methods on diverse and biologically relevant microscopy datasets. Finally, we
show that the overall pipeline has a small enough memory footprint to be used
on virtually all CUDA enabled laptop hardware. Our open-source implementation
is available at github.com/juglab/EmbedSeg.
- Abstract(参考訳): 顕微鏡画像中のオブジェクトの自動検出とセグメンテーションは、多くの生物学的用途にとって重要です。
自然画像の領域、特に街路シーンの文脈では、組み込みベースのインスタンスセグメンテーションは高品質の結果につながります。
この一連の作業から着想を得て、Neven et alの作業に基づいたエンドツーエンドのトレーニング可能なディープラーニングメソッドである EmbedSeg を紹介します。
彼らのアプローチでは、それぞれのピクセルを任意のインスタンスのcentroidに埋め込むが、embedsegでは、生体オブジェクトの複雑な形状に動機づけられている。
さらに、テスト時間拡張スキームを利用して、生物学的顕微鏡データセットのインスタンスセグメンテーションのパフォーマンスを特に改善することを示唆している。
組込み型インスタンスセグメンテーションは,多種多様な生物学的な顕微鏡データに対する最先端の手法と比較して,競争力のある結果が得られることを示した。
最後に、パイプライン全体は、事実上すべてのCUDA対応ラップトップハードウェアで使用できるメモリフットプリントが小さくなっていることを示します。
当社のオープンソース実装はgithub.com/juglab/embedsegで利用可能です。
関連論文リスト
- Unsupervised Learning of Object-Centric Embeddings for Cell Instance
Segmentation in Microscopy Images [3.039768384237206]
オブジェクト中心埋め込み(OCE)を導入する。
OCEはイメージパッチを埋め込み、同じオブジェクトから取得したパッチ間のオフセットが保存される。
画像パッチ間の空間オフセットを予測する自己教師型タスクにより,OCEを学習できることを理論的に示す。
論文 参考訳(メタデータ) (2023-10-12T16:59:50Z) - Microscopy Image Segmentation via Point and Shape Regularized Data
Synthesis [9.47802391546853]
合成学習データを用いた顕微鏡画像セグメンテーションのための統一パイプラインを構築した。
本フレームワークは,濃密なラベルを持つ高精度な顕微鏡画像で訓練されたモデルと同等の結果が得られる。
論文 参考訳(メタデータ) (2023-08-18T22:00:53Z) - Deep Learning-based Bio-Medical Image Segmentation using UNet
Architecture and Transfer Learning [0.0]
我々は,UNetアーキテクチャをスクラッチから実装し,バイオメディカル画像データセットの性能を評価する。
変換学習モデルは、スクラッチから実装されたUNetモデルよりも、画像セグメンテーションにおいて優れた性能を有することを示す。
論文 参考訳(メタデータ) (2023-05-24T07:45:54Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Sparse Object-level Supervision for Instance Segmentation with Pixel
Embeddings [4.038011160363972]
ほとんどの最先端のインスタンスセグメンテーションメソッドは、密接な注釈付き画像でトレーニングする必要があります。
非空間埋め込みに基づく提案フリーセグメンテーション手法を提案する。
本研究では, 異なる顕微鏡モードにおける2次元および3次元分割問題の解法について検討した。
論文 参考訳(メタデータ) (2021-03-26T16:36:56Z) - Attention-Based Transformers for Instance Segmentation of Cells in
Microstructures [22.215852332444904]
本稿では, 直接端対端のインスタンスセグメンテーションのための新しいアテンションベースセル検出トランス (Cell-DETR) を提案する。
セグメンテーション性能は最先端のインスタンスセグメンテーション法と同等だが、Cell-DETRはよりシンプルで高速である。
特定のユースケースでは、提案手法は意味的セグメンテーションのための最先端のツールを超越し、個別のオブジェクトインスタンスを予測する。
論文 参考訳(メタデータ) (2020-11-19T10:49:56Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Panoptic Feature Fusion Net: A Novel Instance Segmentation Paradigm for
Biomedical and Biological Images [91.41909587856104]
本稿では,本研究における意味的特徴とインスタンス的特徴を統一するPanoptic Feature Fusion Net(PFFNet)を提案する。
提案するPFFNetには,インスタンス予測を意味的特徴に組み込むための残注意特徴融合機構が組み込まれている。
様々なバイオメディカルおよび生物学的データセットにおいて、最先端のいくつかの手法を上回ります。
論文 参考訳(メタデータ) (2020-02-15T09:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。