論文の概要: Analysis of the performance of U-Net neural networks for the
segmentation of living cells
- arxiv url: http://arxiv.org/abs/2210.01538v1
- Date: Tue, 4 Oct 2022 11:48:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 13:56:37.288140
- Title: Analysis of the performance of U-Net neural networks for the
segmentation of living cells
- Title(参考訳): 生きた細胞のセグメンテーションのためのu-netニューラルネットワークの性能解析
- Authors: Andr\'e O. Fran\c{c}ani
- Abstract要約: この研究は、顕微鏡画像のセグメント化におけるディープラーニングの性能の研究を目標としている。
深層学習技術(主に畳み込みニューラルネットワーク)は細胞セグメンテーション問題に応用されている。
準リアルタイム画像解析が可能となり、6.20GBのデータを4分で処理した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The automated analysis of microscopy images is a challenge in the context of
single-cell tracking and quantification. This work has as goals the study of
the performance of deep learning for segmenting microscopy images and the
improvement of the previously available pipeline for tracking single cells.
Deep learning techniques, mainly convolutional neural networks, have been
applied to cell segmentation problems and have shown high accuracy and fast
performance. To perform the image segmentation, an analysis of hyperparameters
was done in order to implement a convolutional neural network with U-Net
architecture. Furthermore, different models were built in order to optimize the
size of the network and the number of learnable parameters. The trained network
is then used in the pipeline that localizes the traps in a microfluidic device,
performs the image segmentation on trap images, and evaluates the fluorescence
intensity and the area of single cells over time. The tracking of the cells
during an experiment is performed by image processing algorithms, such as
centroid estimation and watershed. Finally, with all improvements in the neural
network to segment single cells and in the pipeline, quasi-real-time image
analysis was enabled, where 6.20GB of data was processed in 4 minutes.
- Abstract(参考訳): 顕微鏡画像の自動解析は単細胞追跡と定量化の文脈において課題である。
この研究は、顕微鏡画像のセグメンテーションにおけるディープラーニングの性能と、単一セルを追跡するパイプラインの改善を目標としている。
深層学習技術(主に畳み込みニューラルネットワーク)は細胞セグメンテーション問題に適用され、高い精度と高速な性能を示している。
画像分割を行うために,u-netアーキテクチャを用いた畳み込みニューラルネットワークを実装するためにハイパーパラメータの解析を行った。
さらに、ネットワークのサイズと学習可能なパラメータの数を最適化するために、異なるモデルが構築された。
次に、訓練されたネットワークは、マイクロ流体デバイスにトラップをローカライズし、トラップ画像のイメージセグメンテーションを実行し、時間とともに単一セルの蛍光強度と面積を評価するパイプラインで使用される。
実験中のセルの追跡は、遠心推定や流域などの画像処理アルゴリズムによって行われる。
最後に、単一セルとパイプラインをセグメントするニューラルネットワークのすべての改善により、準リアルタイム画像解析が可能となり、6.20GBのデータを4分で処理した。
関連論文リスト
- Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Optimizing Neural Network Scale for ECG Classification [1.8953148404648703]
心電図(ECG)解析のための残留ニューラルネットワーク(ResNet)を対象とするスケーリング畳み込みニューラルネットワーク(CNN)について検討する。
本研究では,層深さ,チャネル数,コンボリューションカーネルサイズといった重要なパラメータの影響を調べることで,ResNetのスケールアップに有効な手法を探索し,実証した。
我々の発見は、計算資源が少ないか、少ない時間でより効率的で正確なモデルを得るための洞察を与えてくれる。
論文 参考訳(メタデータ) (2023-08-24T01:26:31Z) - Training a spiking neural network on an event-based label-free flow
cytometry dataset [0.7742297876120561]
本研究では、イベントベースカメラと自由空間光学装置を組み合わせることで、マイクロ流体流路を通過する各粒子のスパイクを求める。
スパイクニューラルネットワークは、収集されたデータセットに基づいてトレーニングされ、97.7%の平均トレーニング精度と93.5%の平均テスト精度が得られる。
論文 参考訳(メタデータ) (2023-03-19T11:32:57Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - EfficientCellSeg: Efficient Volumetric Cell Segmentation Using Context
Aware Pseudocoloring [4.555723508665994]
ボリュームセルセグメンテーションのための小さな畳み込みニューラルネットワーク(CNN)を導入する。
我々のモデルは効率的で非対称なエンコーダ・デコーダ構造を持ち、デコーダにはほとんどパラメータがない。
我々のCNNモデルは,他の上位手法に比べて最大25倍のパラメータ数を持つ。
論文 参考訳(メタデータ) (2022-04-06T18:02:15Z) - The Preliminary Results on Analysis of TAIGA-IACT Images Using
Convolutional Neural Networks [68.8204255655161]
本研究の目的は,AIGA-IACTに設定された課題を解決するための機械学習アプリケーションの可能性を検討することである。
The method of Convolutional Neural Networks (CNN) was applied to process and analysis Monte-Carlo eventssimulated with CORSIKA。
論文 参考訳(メタデータ) (2021-12-19T15:17:20Z) - CellTrack R-CNN: A Novel End-To-End Deep Neural Network for Cell
Segmentation and Tracking in Microscopy Images [21.747994390120105]
細胞セグメンテーションと細胞追跡を一体化したエンドツーエンドのディープラーニングベースのフレームワークに結合する新しいアプローチを提案します。
本手法はセルセグメンテーションとセル追跡アキュラシーの両方の観点から最先端アルゴリズムを上回る。
論文 参考訳(メタデータ) (2021-02-20T15:55:40Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - The efficiency of deep learning algorithms for detecting anatomical
reference points on radiological images of the head profile [55.41644538483948]
U-Netニューラルネットワークは、完全な畳み込みニューラルネットワークよりも正確に解剖学的基準点の検出を可能にする。
U-Net ニューラルネットワークによる解剖学的基準点検出の結果は,歯科矯正医のグループによる基準点検出の平均値に近づいた。
論文 参考訳(メタデータ) (2020-05-25T13:51:03Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。