論文の概要: EfficientCellSeg: Efficient Volumetric Cell Segmentation Using Context
Aware Pseudocoloring
- arxiv url: http://arxiv.org/abs/2204.03014v1
- Date: Wed, 6 Apr 2022 18:02:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-09 09:01:34.502382
- Title: EfficientCellSeg: Efficient Volumetric Cell Segmentation Using Context
Aware Pseudocoloring
- Title(参考訳): efficientcellseg:context aware pseudocoloringを用いた効率的な体積細胞分割
- Authors: Royden Wagner, Karl Rohr
- Abstract要約: ボリュームセルセグメンテーションのための小さな畳み込みニューラルネットワーク(CNN)を導入する。
我々のモデルは効率的で非対称なエンコーダ・デコーダ構造を持ち、デコーダにはほとんどパラメータがない。
我々のCNNモデルは,他の上位手法に比べて最大25倍のパラメータ数を持つ。
- 参考スコア(独自算出の注目度): 4.555723508665994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Volumetric cell segmentation in fluorescence microscopy images is important
to study a wide variety of cellular processes. Applications range from the
analysis of cancer cells to behavioral studies of cells in the embryonic stage.
Like in other computer vision fields, most recent methods use either large
convolutional neural networks (CNNs) or vision transformer models (ViTs). Since
the number of available 3D microscopy images is typically limited in
applications, we take a different approach and introduce a small CNN for
volumetric cell segmentation. Compared to previous CNN models for cell
segmentation, our model is efficient and has an asymmetric encoder-decoder
structure with very few parameters in the decoder. Training efficiency is
further improved via transfer learning. In addition, we introduce Context Aware
Pseudocoloring to exploit spatial context in z-direction of 3D images while
performing volumetric cell segmentation slice-wise. We evaluated our method
using different 3D datasets from the Cell Segmentation Benchmark of the Cell
Tracking Challenge. Our segmentation method achieves top-ranking results, while
our CNN model has an up to 25x lower number of parameters than other
top-ranking methods. Code and pretrained models are available at:
https://github.com/roydenwa/efficient-cell-seg
- Abstract(参考訳): 蛍光顕微鏡画像における体積細胞分画は,様々な細胞プロセスを研究する上で重要である。
用途は、がん細胞の分析から胚期における細胞の行動研究まで様々である。
他のコンピュータビジョン分野と同様に、最近の手法では大きな畳み込みニューラルネットワーク(CNN)または視覚トランスフォーマーモデル(ViT)を使用する。
利用可能な3D顕微鏡画像の数は一般的にアプリケーションで限られているため、異なるアプローチを採用し、ボリュームセルセグメンテーションのための小さなCNNを導入する。
従来のセルセグメンテーションのcnnモデルと比較して、このモデルは効率的であり、非対称エンコーダ-デコーダ構造を持ち、デコーダのパラメータは極めて少ない。
訓練効率は転校学習によりさらに向上する。
また、3次元画像のz方向における空間的文脈をスライスで活用するためにコンテキスト認識擬似カラー化を導入する。
細胞追跡チャレンジのセルセグメンテーションベンチマークから, 異なる3次元データセットを用いて評価を行った。
セグメンテーション法は最上位の結果を得るが、cnnモデルは最上位のメソッドに比べて最大25倍のパラメータを持つ。
コードと事前訓練されたモデルは以下の通りである。
関連論文リスト
- Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Large-Scale Multi-Hypotheses Cell Tracking Using Ultrametric Contours Maps [1.015920567871904]
本稿では,分割選択手法による大規模3次元細胞追跡手法について述べる。
本手法は,細胞追跡課題から得られた3次元画像の最先端化を実現する。
われわれのフレームワークは柔軟で、市販のセルセグメンテーションモデルからのセグメンテーションをサポートしている。
論文 参考訳(メタデータ) (2023-08-08T18:41:38Z) - CellCentroidFormer: Combining Self-attention and Convolution for Cell
Detection [4.555723508665994]
顕微鏡画像における細胞検出のためのハイブリッドCNN-ViTモデルを提案する。
センチロイドを用いた細胞検出法は、細胞を楕円体として表現し、エンドツーエンドの訓練を可能にする。
論文 参考訳(メタデータ) (2022-06-01T09:04:39Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Enforcing Morphological Information in Fully Convolutional Networks to
Improve Cell Instance Segmentation in Fluorescence Microscopy Images [1.408123603417833]
本稿では,よく知られたU-Netアーキテクチャに基づく新しいセルインスタンス分割手法を提案する。
深部距離変換器(DDT)がバックボーンモデルとして機能する。
その結果,従来のU-Netアーキテクチャよりも性能が向上することが示唆された。
論文 参考訳(メタデータ) (2021-06-10T15:54:38Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - Image segmentation via Cellular Automata [58.86475603234583]
我々は高解像度画像のセグメンテーションを成功させるセルオートマトンを設計し、訓練する。
私たちの最小のオートマトンは、複雑なセグメンテーションタスクを解決するために1万以下のパラメータを使用します。
論文 参考訳(メタデータ) (2020-08-11T19:04:09Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。