論文の概要: The TYC Dataset for Understanding Instance-Level Semantics and Motions
of Cells in Microstructures
- arxiv url: http://arxiv.org/abs/2308.12116v1
- Date: Wed, 23 Aug 2023 13:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:05:40.533151
- Title: The TYC Dataset for Understanding Instance-Level Semantics and Motions
of Cells in Microstructures
- Title(参考訳): 微構造中の細胞のインスタンスレベルセマンティックスと運動を理解するためのTYCデータセット
- Authors: Christoph Reich, Tim Prangemeier, Heinz Koeppl
- Abstract要約: 組換え酵母細胞(TYC)データセットは、マイクロ構造中の細胞のインスタンスレベルのセマンティクスと運動を理解するための新しいデータセットである。
TYCは、これまで最大のデータセットであるセルやマイクロ構造を含む10倍のインスタンスアノテーションを提供する。
- 参考スコア(独自算出の注目度): 29.29348484938194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmenting cells and tracking their motion over time is a common task in
biomedical applications. However, predicting accurate instance-wise
segmentation and cell motions from microscopy imagery remains a challenging
task. Using microstructured environments for analyzing single cells in a
constant flow of media adds additional complexity. While large-scale labeled
microscopy datasets are available, we are not aware of any large-scale dataset,
including both cells and microstructures. In this paper, we introduce the
trapped yeast cell (TYC) dataset, a novel dataset for understanding
instance-level semantics and motions of cells in microstructures. We release
$105$ dense annotated high-resolution brightfield microscopy images, including
about $19$k instance masks. We also release $261$ curated video clips composed
of $1293$ high-resolution microscopy images to facilitate unsupervised
understanding of cell motions and morphology. TYC offers ten times more
instance annotations than the previously largest dataset, including cells and
microstructures. Our effort also exceeds previous attempts in terms of
microstructure variability, resolution, complexity, and capturing device
(microscopy) variability. We facilitate a unified comparison on our novel
dataset by introducing a standardized evaluation strategy. TYC and evaluation
code are publicly available under CC BY 4.0 license.
- Abstract(参考訳): 細胞を分離し、時間とともに動きを追跡することは、生体医学的応用において一般的な課題である。
しかし、顕微鏡画像から正確なインスタンス単位のセグメンテーションと細胞の動きを予測することは難しい課題である。
媒体の一定の流れで単一細胞を解析するために微細な環境を使用することで、さらなる複雑さが増す。
大規模ラベル付き顕微鏡データセットは利用可能だが、細胞と微細構造の両方を含む大規模データセットは認識していない。
本稿では,細胞構造におけるインスタンスレベルのセマンティクスと運動を理解するための新しいデータセットであるt caught yeast cell (tyc) datasetについて述べる。
約19ドル(約1万2000円)のインスタンスマスクを含む、高精細なブライトフィールド顕微鏡の画像を105ドル(約1万5000円)で公開しています。
また、細胞の動きや形態の教師なし理解を容易にするために、1293ドルの高解像度顕微鏡画像からなる261ドルのキュレートビデオクリップもリリースしました。
TYCは、これまで最大のデータセットであるセルやマイクロ構造を含む10倍のインスタンスアノテーションを提供する。
また, 組織変化, 分解能, 複雑さ, 捕獲デバイス(マイクロスコープ)の変動性の観点からは, これまでの試みを上回っている。
標準化された評価戦略を導入することで,新しいデータセットの統一的な比較が容易になる。
TYCと評価コードはCC BY 4.0ライセンスで公開されている。
関連論文リスト
- DiffKillR: Killing and Recreating Diffeomorphisms for Cell Annotation in Dense Microscopy Images [105.46086313858062]
DiffKillRは、アーチェタイプマッチングと画像登録タスクの組み合わせとして、セルアノテーションを再構成する新しいフレームワークである。
我々はDiffKillRの理論的性質について論じ、それを3つの顕微鏡タスクで検証し、既存の教師付き・半教師なし・教師なしの手法に対する利点を実証する。
論文 参考訳(メタデータ) (2024-10-04T00:38:29Z) - Masked Autoencoders for Microscopy are Scalable Learners of Cellular Biology [2.7280901660033643]
本研究は、弱教師付き分類器と自己教師付きマスク付きオートエンコーダ(MAE)のスケーリング特性について検討する。
以上の結果から,ViTをベースとしたMAEは,様々なタスクにおいて弱い教師付き分類器よりも優れており,公的なデータベースから得られた既知の生物学的関係を思い出すと,11.5%の相対的な改善が達成されることがわかった。
我々は、異なる数のチャネルと順序の画像を推論時に入力できる新しいチャネルに依存しないMAEアーキテクチャ(CA-MAE)を開発した。
論文 参考訳(メタデータ) (2024-04-16T02:42:06Z) - The Berkeley Single Cell Computational Microscopy (BSCCM) Dataset [1.53744306569115]
本稿では,バークレー単細胞顕微鏡データセットについて紹介する。
このデータセットには、40万個の白血球の12,000,000枚以上の画像が含まれている。
論文 参考訳(メタデータ) (2024-02-09T05:10:53Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - An Instance Segmentation Dataset of Yeast Cells in Microstructures [26.801504820020288]
本稿では, 酵母細胞を微細構造にセグメント化するための新しいデータセットを提案する。
計493枚の濃密な注釈付き顕微鏡像を公表した。
データセットと評価戦略の目的は,新しい細胞セグメンテーション手法の開発を容易にすることである。
論文 参考訳(メタデータ) (2023-04-15T17:05:24Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Three-dimensional microstructure generation using generative adversarial
neural networks in the context of continuum micromechanics [77.34726150561087]
本研究は, 三次元マイクロ構造生成に適した生成対向ネットワークを提案する。
軽量アルゴリズムは、明示的な記述子を必要とせずに、単一のmicroCTスキャンから材料の基礎特性を学習することができる。
論文 参考訳(メタデータ) (2022-05-31T13:26:51Z) - Multiclass Yeast Segmentation in Microstructured Environments with Deep
Learning [20.456742449675904]
我々は、個々の酵母細胞の多クラスセグメンテーションのために訓練された畳み込みニューラルネットワークを提案する。
本手法は, 微構造環境下での酵母のセグメンテーションへの寄与を, 典型的な合成生物学的応用で示す。
論文 参考訳(メタデータ) (2020-11-16T16:16:13Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Split and Expand: An inference-time improvement for Weakly Supervised
Cell Instance Segmentation [71.50526869670716]
本研究では,分割マップのインスタンスへの変換を改善するために,2段階の後処理手順であるSplitとExpandを提案する。
Splitのステップでは,セルの集合をセグメント化マップから個々のセルインスタンスに分割し,セル中心の予測を導出する。
拡張ステップでは、細胞中心予測を用いて、小さな細胞が欠落していることが分かる。
論文 参考訳(メタデータ) (2020-07-21T14:05:09Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。