論文の概要: Segment Anything for Cell Tracking
- arxiv url: http://arxiv.org/abs/2509.09943v1
- Date: Fri, 12 Sep 2025 03:19:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.966871
- Title: Segment Anything for Cell Tracking
- Title(参考訳): 細胞追跡のためのセグメンテーション
- Authors: Zhu Chen, Mert Edgü, Er Jin, Johannes Stegmaier,
- Abstract要約: タイムラプス顕微鏡画像のためのゼロショットセルトラッキングフレームワークを提案する。
完全教師なしのアプローチとして、我々の手法は特定のトレーニングデータセットからのバイアスに依存したり、受け継いだりしない。
提案手法は,2次元および大規模3次元タイムラプス顕微鏡ビデオにおける競合精度を実現する。
- 参考スコア(独自算出の注目度): 2.0382881548515575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking cells and detecting mitotic events in time-lapse microscopy image sequences is a crucial task in biomedical research. However, it remains highly challenging due to dividing objects, low signal-tonoise ratios, indistinct boundaries, dense clusters, and the visually similar appearance of individual cells. Existing deep learning-based methods rely on manually labeled datasets for training, which is both costly and time-consuming. Moreover, their generalizability to unseen datasets remains limited due to the vast diversity of microscopy data. To overcome these limitations, we propose a zero-shot cell tracking framework by integrating Segment Anything 2 (SAM2), a large foundation model designed for general image and video segmentation, into the tracking pipeline. As a fully-unsupervised approach, our method does not depend on or inherit biases from any specific training dataset, allowing it to generalize across diverse microscopy datasets without finetuning. Our approach achieves competitive accuracy in both 2D and large-scale 3D time-lapse microscopy videos while eliminating the need for dataset-specific adaptation.
- Abstract(参考訳): タイムラプス顕微鏡画像における細胞追跡と有糸分裂現象の検出は、生物医学研究において重要な課題である。
しかし、オブジェクトの分割、信号-トノア比の低さ、不明瞭な境界、密集したクラスター、視覚的に類似した個々の細胞の出現など、非常に困難である。
既存のディープラーニングベースの手法は、トレーニングのために手動でラベル付けされたデータセットに依存している。
さらに、観察できないデータセットへの一般化性は、顕微鏡データの多様さのために制限されている。
これらの制限を克服するために、一般的な画像やビデオのセグメンテーション用に設計された大きな基盤モデルであるSegment Anything 2 (SAM2) をトラッキングパイプラインに統合することにより、ゼロショットセルトラッキングフレームワークを提案する。
完全教師なしのアプローチとして、我々の手法は特定のトレーニングデータセットからのバイアスに依存したり、継承したりせず、微調整なしで様々な顕微鏡データセットをまたいで一般化することができる。
提案手法は,2次元および大規模3次元タイムラプスビデオにおいて,データセット固有の適応の必要性を排除しつつ,競合精度を実現する。
関連論文リスト
- trAIce3D: A Prompt-Driven Transformer Based U-Net for Semantic Segmentation of Microglial Cells from Large-Scale 3D Microscopy Images [39.58317527488534]
本稿では,精密マイクログリアセグメンテーションのためのディープラーニングアーキテクチャであるtrAIce3Dを紹介する。
まず、エンコーダ内の視覚変換器を備えた3D U-Netは、スライディングウインドウ技術を用いて、画像全体をカバーするソマを検出する。
次に、ソマ座標をプロンプトとして、ターゲットセルの周りの3Dウィンドウを入力として、ソマとその枝を洗練する。
TRAIce3Dは41,230マイクログリアセルのデータセットで訓練され、評価され、セグメンテーションの精度とスケーラブルな一般化を著しく改善する。
論文 参考訳(メタデータ) (2025-07-30T12:54:53Z) - Self-Supervised Z-Slice Augmentation for 3D Bio-Imaging via Knowledge Distillation [65.46249968484794]
ZAugNetは、生物画像のz分解能を高めるための高速で正確で自己教師型のディープラーニング手法である。
連続スライス間の非線形距離を実行することで、ZAugNetは各イテレーションで分解能を効果的に倍にする。
ZAugNet+は任意の距離で連続的な予測を可能にする拡張版である。
論文 参考訳(メタデータ) (2025-03-05T17:50:35Z) - The TYC Dataset for Understanding Instance-Level Semantics and Motions
of Cells in Microstructures [29.29348484938194]
組換え酵母細胞(TYC)データセットは、マイクロ構造中の細胞のインスタンスレベルのセマンティクスと運動を理解するための新しいデータセットである。
TYCは、これまで最大のデータセットであるセルやマイクロ構造を含む10倍のインスタンスアノテーションを提供する。
論文 参考訳(メタデータ) (2023-08-23T13:10:33Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Search for temporal cell segmentation robustness in phase-contrast
microscopy videos [31.92922565397439]
本研究では,3次元コラーゲンマトリックスに埋め込まれた癌細胞を分画する深層学習ワークフローを提案する。
また, 癌細胞形態を研究するための幾何学的特徴付け手法を提案する。
2Dセルのセグメンテーションと追跡のための新しいアノテーション付きデータセットと、実験を再現したり、新しい画像処理問題に適応するためのオープンソース実装を導入する。
論文 参考訳(メタデータ) (2021-12-16T12:03:28Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - AttentionNAS: Spatiotemporal Attention Cell Search for Video
Classification [86.64702967379709]
本稿では,時間的注意のための新しい検索空間を提案する。これにより,検索アルゴリズムはセルの様々な設計選択を柔軟に探索することができる。
検出されたアテンションセルは既存のバックボーンネットワーク(例えばI3DやS3D)にシームレスに挿入することができ、Kinetics-600とMiTのデータセットでビデオの精度を2%以上改善することができる。
論文 参考訳(メタデータ) (2020-07-23T14:30:05Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。