論文の概要: Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy
- arxiv url: http://arxiv.org/abs/2004.01486v4
- Date: Thu, 22 Oct 2020 14:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:36:41.127004
- Title: Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy
- Title(参考訳): CNNに基づく距離予測とグラフベースのマッチング戦略を用いたセルセグメンテーションと追跡
- Authors: Tim Scherr, Katharina L\"offler, Moritz B\"ohland, Ralf Mikut
- Abstract要約: 顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
- 参考スコア(独自算出の注目度): 0.20999222360659608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The accurate segmentation and tracking of cells in microscopy image sequences
is an important task in biomedical research, e.g., for studying the development
of tissues, organs or entire organisms. However, the segmentation of touching
cells in images with a low signal-to-noise-ratio is still a challenging
problem. In this paper, we present a method for the segmentation of touching
cells in microscopy images. By using a novel representation of cell borders,
inspired by distance maps, our method is capable to utilize not only touching
cells but also close cells in the training process. Furthermore, this
representation is notably robust to annotation errors and shows promising
results for the segmentation of microscopy images containing in the training
data underrepresented or not included cell types. For the prediction of the
proposed neighbor distances, an adapted U-Net convolutional neural network
(CNN) with two decoder paths is used. In addition, we adapt a graph-based cell
tracking algorithm to evaluate our proposed method on the task of cell
tracking. The adapted tracking algorithm includes a movement estimation in the
cost function to re-link tracks with missing segmentation masks over a short
sequence of frames. Our combined tracking by detection method has proven its
potential in the IEEE ISBI 2020 Cell Tracking Challenge
(http://celltrackingchallenge.net/) where we achieved as team KIT-Sch-GE
multiple top three rankings including two top performances using a single
segmentation model for the diverse data sets.
- Abstract(参考訳): 顕微鏡画像シーケンス中の細胞の正確なセグメンテーションと追跡は、例えば組織、臓器または有機体全体の発達を研究するための生体医学研究において重要なタスクである。
しかし、信号対雑音比の低い画像における接触細胞のセグメンテーションは依然として難しい問題である。
本稿では,顕微鏡画像における接触細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
さらに、この表現は、アノテーションエラーに対して顕著に堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
提案した近接距離の予測には、2つのデコーダパスを持つ適応型U-Net畳み込みニューラルネットワーク(CNN)を用いる。
さらに,提案手法をセルトラッキングの課題に適用するために,グラフベースのセルトラッキングアルゴリズムを適用した。
適応された追跡アルゴリズムは、コスト関数の移動推定を含み、短いフレーム列にセグメントマスクを欠いたトラックをリリンクする。
我々は, IEEE ISBI 2020 Cell Tracking Challenge (http://celltrackingchallenge.net/) において, KIT-Sch-GEチームとして, 多様なデータセットを対象とした単一セグメンテーションモデルを用いた2つのトップパフォーマンスを含む3つのランキングを達成した。
関連論文リスト
- Cell as Point: One-Stage Framework for Efficient Cell Tracking [54.19259129722988]
本稿では,一段階の効率的なセルトラッキングを実現するために,新しいエンドツーエンドCAPフレームワークを提案する。
CAPは検出またはセグメンテーション段階を放棄し、細胞点の軌跡間の相関を利用して細胞を共同で追跡することでプロセスを単純化する。
Capは強力なセルトラッキング性能を示し、既存の方法の10倍から55倍の効率を示している。
論文 参考訳(メタデータ) (2024-11-22T10:16:35Z) - Trackastra: Transformer-based cell tracking for live-cell microscopy [0.0]
Trackastraは、単純なトランスフォーマーアーキテクチャを使って、細胞同士の相互関連を学習する汎用的な細胞追跡手法である。
我々の追跡手法は、高度に調整された最先端の細胞追跡アルゴリズムに匹敵する性能を示す。
論文 参考訳(メタデータ) (2024-05-24T16:44:22Z) - Cell Graph Transformer for Nuclei Classification [78.47566396839628]
我々は,ノードとエッジを入力トークンとして扱うセルグラフ変換器(CGT)を開発した。
不愉快な特徴は、騒々しい自己注意スコアと劣等な収束につながる可能性がある。
グラフ畳み込みネットワーク(GCN)を利用して特徴抽出器を学習する新しいトポロジ対応事前学習法を提案する。
論文 参考訳(メタデータ) (2024-02-20T12:01:30Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - EfficientCellSeg: Efficient Volumetric Cell Segmentation Using Context
Aware Pseudocoloring [4.555723508665994]
ボリュームセルセグメンテーションのための小さな畳み込みニューラルネットワーク(CNN)を導入する。
我々のモデルは効率的で非対称なエンコーダ・デコーダ構造を持ち、デコーダにはほとんどパラメータがない。
我々のCNNモデルは,他の上位手法に比べて最大25倍のパラメータ数を持つ。
論文 参考訳(メタデータ) (2022-04-06T18:02:15Z) - Graph Neural Network for Cell Tracking in Microscopy Videos [0.0]
顕微鏡ビデオにおける細胞追跡のための新しいグラフニューラルネットワーク(GNN)を提案する。
タイムラプスシーケンス全体を直接グラフとしてモデル化することにより,セルトラジェクトリの集合全体を抽出する。
我々は、異なる生体細胞のインスタンスを区別する細胞特徴ベクトルを抽出するために、ディープメトリック学習アルゴリズムを利用する。
論文 参考訳(メタデータ) (2022-02-09T21:21:48Z) - CellTrack R-CNN: A Novel End-To-End Deep Neural Network for Cell
Segmentation and Tracking in Microscopy Images [21.747994390120105]
細胞セグメンテーションと細胞追跡を一体化したエンドツーエンドのディープラーニングベースのフレームワークに結合する新しいアプローチを提案します。
本手法はセルセグメンテーションとセル追跡アキュラシーの両方の観点から最先端アルゴリズムを上回る。
論文 参考訳(メタデータ) (2021-02-20T15:55:40Z) - AttentionNAS: Spatiotemporal Attention Cell Search for Video
Classification [86.64702967379709]
本稿では,時間的注意のための新しい検索空間を提案する。これにより,検索アルゴリズムはセルの様々な設計選択を柔軟に探索することができる。
検出されたアテンションセルは既存のバックボーンネットワーク(例えばI3DやS3D)にシームレスに挿入することができ、Kinetics-600とMiTのデータセットでビデオの精度を2%以上改善することができる。
論文 参考訳(メタデータ) (2020-07-23T14:30:05Z) - Split and Expand: An inference-time improvement for Weakly Supervised
Cell Instance Segmentation [71.50526869670716]
本研究では,分割マップのインスタンスへの変換を改善するために,2段階の後処理手順であるSplitとExpandを提案する。
Splitのステップでは,セルの集合をセグメント化マップから個々のセルインスタンスに分割し,セル中心の予測を導出する。
拡張ステップでは、細胞中心予測を用いて、小さな細胞が欠落していることが分かる。
論文 参考訳(メタデータ) (2020-07-21T14:05:09Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。