論文の概要: Automatic Cell Counting in Flourescent Microscopy Using Deep Learning
- arxiv url: http://arxiv.org/abs/2103.01141v1
- Date: Wed, 24 Feb 2021 23:04:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:51:25.640066
- Title: Automatic Cell Counting in Flourescent Microscopy Using Deep Learning
- Title(参考訳): 深層学習による蛍光顕微鏡による細胞自動計測
- Authors: R. Morelli, L. Clissa, M. Dalla, M. Luppi, L. Rinaldi, A. Zoccoli
- Abstract要約: 関心のある対象をローカライズするために,全畳み込みネットワークをバイナリセグメンテーション方式で活用する機械学習手法を提案する。
カウントは検出されたアイテムの数として取得される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counting cells in fluorescent microscopy is a tedious, time-consuming task
that researchers have to accomplish to assess the effects of different
experimental conditions on biological structures of interest. Although such
objects are generally easy to identify, the process of manually annotating
cells is sometimes subject to arbitrariness due to the operator's
interpretation of the borderline cases.
We propose a Machine Learning approach that exploits a fully-convolutional
network in a binary segmentation fashion to localize the objects of interest.
Counts are then retrieved as the number of detected items.
Specifically, we adopt a UNet-like architecture leveraging residual units and
an extended bottleneck for enlarging the field-of-view. In addition, we make
use of weighted maps that penalize the errors on cells boundaries increasingly
with overcrowding. These changes provide more context and force the model to
focus on relevant features during pixel-wise classification. As a result, the
model performance is enhanced, especially in presence of clumping cells,
artifacts and confounding biological structures. Posterior assessment of the
results with domain experts confirms that the model detects cells of interest
correctly. The model demonstrates a human-level ability inasmuch even erroneous
predictions seem to fall within the limits of operator interpretation. This
qualitative assessment is also corroborated by quantitative metrics as an
${F_1}$ score of 0.87.
Despite some difficulties in interpretation, results are also satisfactory
with respect to the counting task, as testified by mean and median absolute
error of, respectively, 0.8 and 1.
- Abstract(参考訳): 蛍光顕微鏡で細胞を数えるのは退屈で時間を要する作業で、研究者は異なる実験条件が興味のある生物学的構造に与える影響を評価する必要がある。
このようなオブジェクトは一般に識別が容易であるが、手動で細胞に注釈を付けるプロセスは、オペレーターが境界のケースを解釈することによる任意性を受けることがある。
本稿では,完全畳み込みネットワークをバイナリセグメンテーション方式で活用し,関心対象のローカライズを行う機械学習手法を提案する。
カウントは検出されたアイテムの数として取得される。
具体的には、残留ユニットと拡張ボトルネックを利用して視野を拡大するUNetのようなアーキテクチャを採用する。
さらに,重み付きマップを用いて,セル境界の誤差を過密化とともにペナルティ化する。
これらの変更により、よりコンテキストが提供され、ピクセル単位での分類において、モデルは関連する機能に集中せざるを得なくなる。
その結果、特に塊状細胞、アーティファクト、および共役生物構造の存在下でのモデル性能が向上する。
ドメインエキスパートによる結果の後方評価は、モデルが関心のある細胞を正しく検出することを確認する。
このモデルは、誤った予測でさえ、演算子の解釈の限界内に収まるような人間レベルの能力を示す。
この定性評価は、定量測定値によって${F_1}$スコア0.87と相関する。
解釈の難しさにも拘わらず、平均値と中央値の絶対誤差が0.8と1のそれぞれで証明されるように、結果はカウントタスクにも満足できる。
関連論文リスト
- CoTCoNet: An Optimized Coupled Transformer-Convolutional Network with an Adaptive Graph Reconstruction for Leukemia Detection [0.3573481101204926]
白血病の分類のためのCoTCoNet(Coupled Transformer Convolutional Network)フレームワークを提案する。
我々のフレームワークは、包括的グローバル特徴とスケーラブルな空間パターンを捉え、複雑で大規模な血液学的特徴の同定を可能にする。
それぞれ0.9894と0.9893のF1スコアレートを達成している。
論文 参考訳(メタデータ) (2024-10-11T13:31:28Z) - Revisiting Adaptive Cellular Recognition Under Domain Shifts: A Contextual Correspondence View [49.03501451546763]
生物学的文脈における暗黙の対応の重要性を明らかにする。
モデル構成成分間のインスタンス認識トレードオフを確保するために, 自己適応型動的蒸留を提案する。
論文 参考訳(メタデータ) (2024-07-14T04:41:16Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - DeGPR: Deep Guided Posterior Regularization for Multi-Class Cell
Detection and Counting [14.222014969736993]
マルチクラス細胞検出とカウントは多くの病理診断に必須の課題である。
本稿では,細胞間における識別的特徴の活用を誘導することにより,物体検出を支援するガイド付き後部正則化(DeGPR)を提案する。
2つの公開データセットと、コントリビュートした新しいデータセットであるMuCeD上で、私たちのモデルを検証します。
論文 参考訳(メタデータ) (2023-04-03T06:25:45Z) - A biology-driven deep generative model for cell-type annotation in
cytometry [0.0]
Scyanはシングルセルサイトメトリーネットワークで,事前知識のみを用いて細胞タイプを自動的にアノテートする。
Scyanは、複数の公開データセット上の関連する最先端モデルよりも高速で解釈可能である。
さらに、Scyanはバッチ効果除去、デバーコーディング、人口発見など、いくつかの補完的なタスクを克服している。
論文 参考訳(メタデータ) (2022-08-11T10:50:44Z) - Development of Interpretable Machine Learning Models to Detect
Arrhythmia based on ECG Data [0.0]
この論文は、最先端モデルに基づいた畳み込みニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)分類器を構築する。
大域的および局所的解釈可能性法は、依存変数と独立変数の相互作用を理解するために利用される。
提案したCNNモデルとLSTMモデルの予測を説明する上で,Grad-Camが最も効果的な解釈可能性技術であることが判明した。
論文 参考訳(メタデータ) (2022-05-05T17:29:33Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Analysis of Vision-based Abnormal Red Blood Cell Classification [1.6050172226234583]
赤血球(RBC)の異常の同定は、貧血から肝疾患まで幅広い医学的疾患を診断する鍵となる。
本稿では,機械学習の利点を利用したセル異常検出のキャパシティ向上と標準化を目的とした自動化プロセスを提案する。
論文 参考訳(メタデータ) (2021-06-01T10:52:41Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。