論文の概要、ライセンス

# (参考訳) 蛍光顕微鏡画像におけるセルインスタンスセグメンテーション改善のための完全畳み込みネットワークにおける形態素情報を強制する [全文訳有]

Enforcing Morphological Information in Fully Convolutional Networks to Improve Cell Instance Segmentation in Fluorescence Microscopy Images ( http://arxiv.org/abs/2106.05843v1 )

ライセンス: CC BY 4.0
Willard Zamora-Cardenas, Mauro Mendez, Saul Calderon-Ramirez, Martin Vargas, Gerardo Monge, Steve Quiros, David Elizondo, David Elizondo, Miguel A. Molina-Cabello(参考訳) 蛍光顕微鏡画像における細胞インスタンスのセグメンテーションは、がんのダイナミックスや予後に欠かせないものになりつつある。 がんダイナミクスから抽出されたデータは、増殖のような異なる代謝過程を理解し、正確にモデル化することができる。 これにより、カスタマイズされたより正確ながん治療が可能になる。 しかし、さらなる細胞追跡と行動解析に必要な正確な細胞インスタンスのセグメンテーションは、高い細胞濃度と重なり合うエッジを持つシナリオでは依然として困難である。 本稿では,よく知られたU-Netアーキテクチャに基づく新しいセルインスタンス分割手法を提案する。 画素毎の形態情報の学習を強制するために、奥行きトランスフォーマー(ddt)がバックボーンモデルとして機能する。 DDT出力はその後、トップモデルのトレーニングに使用される。 以下のトップモデルが考慮される: 3つのクラス(前景、背景およびセル境界)、u-net、および流域変換。 その結果,従来のU-Netアーキテクチャよりも性能が向上することが示唆された。 これは、形態素情報を完全な畳み込みモデルに注入するというアイデアに関する興味深い研究ラインを開く。

Cell instance segmentation in fluorescence microscopy images is becoming essential for cancer dynamics and prognosis. Data extracted from cancer dynamics allows to understand and accurately model different metabolic processes such as proliferation. This enables customized and more precise cancer treatments. However, accurate cell instance segmentation, necessary for further cell tracking and behavior analysis, is still challenging in scenarios with high cell concentration and overlapping edges. Within this framework, we propose a novel cell instance segmentation approach based on the well-known U-Net architecture. To enforce the learning of morphological information per pixel, a deep distance transformer (DDT) acts as a back-bone model. The DDT output is subsequently used to train a top-model. The following top-models are considered: a three-class (\emph{e.g.,} foreground, background and cell border) U-net, and a watershed transform. The obtained results suggest a performance boost over traditional U-Net architectures. This opens an interesting research line around the idea of injecting morphological information into a fully convolutional model.
公開日: Thu, 10 Jun 2021 15:54:38 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
0 1 ] V C . 0 1 ] 略称はC。 0.73
s c [ 1 v 3 4 8 5 0 sc [ 1 v 3 4 8 5 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Enforcing Morphological Information in Fully Convolutional Networks to Improve Cell Instance Segmentation in Fluorescence 完全形態情報の導入 蛍光のセルインスタンスセグメンテーションを改善する畳み込みネットワーク 0.64
Microscopy Images(cid:63) 顕微鏡画像(cid:63) 0.68
Willard Zamora-C´ardenas1, Mauro Mendez1, Saul Calderon-Ramirez1,2, Willard Zamora-C ́ardenas1, Mauro Mendez1, Saul Calderon-Ramirez1,2, 0.56
Martin Vargas1, Gerardo Monge1, Steve Quiros3, David Elizondo2, Jordina Martin Vargas1, Gerardo Monge1, Steve Quiros3, David Elizondo2, Jordina 0.92
Torrents-Barrena4 and Miguel A. Molina-Cabello5,6 Torrents-Barrena4とMiguel A. Molina-Cabello5,6 0.46
1Computing School, Costa Rica Institute of Technology, Costa Rica コスタリカ工業大学 コンピューティングスクール 1 コスタリカ 0.42
2Department of Computer Technology, De Montfort University, United Kingdom イギリス・デ・モンフォート大学コンピュータ工学科2研究室 0.73
3Tropical Diseases Research Center, Microbiology Faculty. 3Tropical Diseases Research Center, Microbiology Faculty 0.79
University of Costa Rica, コスタリカ大学教授。 0.41
4Department of Computer Engineering and Mathematics, Rovira i Virgili University, Rovira i Virgili大学コンピュータ工学・数学科 0.49
Costa Rica 5Department of Computer Languages and Computer Science, University of Malaga, コスタリカ 5 マラガ大学コンピュータ言語・計算機科学科 0.50
6Instituto de Investigaci´on Biom´edica de M´alaga – IBIMA, Spain 6 instituto de Investigaci ́on Biom ́edica de M ́alaga - IBIMA 0.70
E-mail: sacalderon@itcr.ac.c r メール: sacalderon@itcr.ac.c r 0.66
Spain Spain Abstract. スペイン スペイン 抽象。 0.76
Cell instance segmentation in fluorescence microscopy images is becoming essential for cancer dynamics and prognosis. 蛍光顕微鏡画像における細胞インスタンスのセグメンテーションは、がんのダイナミックスや予後に欠かせないものになりつつある。 0.51
Data extracted from cancer dynamics allows to understand and accurately model different metabolic processes such as proliferation. がんダイナミクスから抽出されたデータは、増殖のような異なる代謝過程を理解し、正確にモデル化することができる。
訳抜け防止モード: がんダイナミクスから抽出されたデータは 増殖等の異なる代謝過程を理解し、正確にモデル化する。
0.63
This enables customized and more precise cancer treatments. これにより、カスタマイズされたより正確ながん治療が可能になる。 0.42
However, accurate cell instance segmentation, necessary for further cell tracking and behavior analysis, is still challenging in scenarios with high cell concentration and overlapping edges. しかし、さらなる細胞追跡と行動解析に必要な正確な細胞インスタンスのセグメンテーションは、高い細胞濃度と重なり合うエッジを持つシナリオでは依然として困難である。 0.77
Within this framework, we propose a novel cell instance segmentation approach based on the well-known U-Net architecture. 本稿では,よく知られたU-Netアーキテクチャに基づく新しいセルインスタンス分割手法を提案する。 0.76
To enforce the learning of morphological information per pixel, a deep distance transformer (DDT) acts as a back-bone model. 画素毎の形態情報の学習を強制するために、奥行きトランスフォーマー(ddt)がバックボーンモデルとして機能する。 0.63
The DDT output is subsequently used to train a top-model. DDT出力はその後、トップモデルのトレーニングに使用される。 0.68
The following top-models are considered: a three-class (e g , foreground, background and cell border) U-net, and a watershed transform. 以下のトップモデルが考慮される: 3つのクラス(前景、背景、セル境界など)、u-net、および流域変換。 0.73
The obtained results suggest a performance boost over traditional U-Net architectures. その結果,従来のU-Netアーキテクチャよりも性能が向上することが示唆された。 0.48
This opens an interesting research line around the idea of injecting morphological information into a fully convolutional model. これは、形態素情報を完全な畳み込みモデルに注入するというアイデアに関する興味深い研究ラインを開く。 0.61
Keywords: convolutional neural networks · cell segmentation · medical image processing · deep learning. キーワード:畳み込みニューラルネットワーク、セルセグメンテーション、医療画像処理、深層学習。 0.69
(cid:63) This work is partially supported by the following Spanish grants: TIN2016-75097-P, RTI2018-094645-B-I00 and UMA18-FEDERJA-084. TIN2016-75097-P、RTI2018-094645-B-I00 、UMA18-FEDERJA-084。 0.42
All of them include funds from the European Regional Development Fund (ERDF). これら全てには欧州地域開発基金(ERDF)からの資金が含まれている。 0.76
The authors acknowledge the funding from the Universidad de M´alaga. 著者らはこの資金をM・アラガ大学から受け取っている。 0.55
英語(論文から抽出)日本語訳スコア
2 1 Zamora-C´ardenas et al 2 1 Zamora-C ́ardenas et al 0.76
Introduction The application of new image processing techniques is a burgeoning trend in life sciences such as biology, chemistry, medicine, among others. はじめに 新しい画像処理技術の応用は、生物学、化学、医学などの生命科学における急成長するトレンドである。 0.64
Their implementation includes object measurement, 3D space exploration (e g , magnetic resonance / positron emission tomography) for surgical planning, dynamic process analysis for time-lapse imaging in cell growth, movement and proliferation [11,26,27,3,30], detection and classification of blood cells [14], cancer diagnosis, histopathology and detection of multiple diseases [16,?,25,28,31,32,33]. その実装には、手術計画のための物体計測、3次元空間探査(磁気共鳴/陽電子放射断層撮影)、細胞の成長、運動および増殖の時間経過イメージングのための動的プロセス解析(11,26,27,3,30]、血液細胞[14]の検出と分類、がん診断、病理組織学、多発疾患[16,25,28,31,32,33]の検出が含まれる。 0.74
Accurate cell segmentation is crucial for robust heterogeneous cell dynamics quantification (e g , mitotic activity detection), tracking and classification, which are often implemented as subsequent higher-level stages. 正確な細胞セグメンテーションは、後続の高レベル段階としてしばしば実装される、堅牢な不均一な細胞動態定量化(例えば、分裂活動の検出)、追跡および分類に不可欠である。 0.65
For instance, intratumoral heterogeneity contributes to drug resistance and cancer lethality [12]. 例えば、腫瘍内不均一性は薬剤耐性とがん致死性に寄与する[12]。 0.56
In cancer research, cell biologists aim to monitor single-cell changes in response to chemotherapies. がん研究において、細胞生物学者は化学療法に対する単一細胞の変化を監視することを目指している。 0.55
Indeed, given the relevance of malignant cell proliferation, the aforementioned changes need to be rigorously tracked along the progeny of cancer cells through time-lapse microscopy. 実際、悪性細胞増殖の関連性を考えると、前述の変化は、タイムラプス顕微鏡を通して癌細胞の祖先に沿って厳密に追跡される必要がある。
訳抜け防止モード: 実際、悪性細胞増殖の関連性を考えると、前述の変化が必要である。 タイムラプス顕微鏡でがん細胞の世代を正確に追跡する。
0.63
Manual cell segmentation is timeconsuming, prone to human subjective variation and biased by medical devices, making (semi-)automatic cell segmentation approaches appealing. 手動細胞のセグメンテーションは時間を要するため、ヒトの主観的変異に起因し、医療機器に偏っているため、(半自動の)細胞セグメンテーションアプローチが魅力的である。
訳抜け防止モード: 手動の細胞分節は時間的消費であり、ヒトの主観的変異を引き起こす 医療機器に偏り 半自動細胞セグメンテーション(半自動細胞セグメンテーション)をアピールする。
0.67
Fully automatic segmentation of cell instances is widely tackled in the literature (see Section 2). セルインスタンスの完全自動セグメンテーションは文献で広く取り組まれている(第2節参照)。 0.75
Image segmentation is defined as the assignment of a class or label to a pixel (i.e., pixel-wise classification). 画像分割は、クラスやラベルのピクセルへの割り当て(ピクセル単位での分類)として定義される。 0.79
More specifically, the problem of assigning one out of multiple classes to a pixel is known as semantic segmentation. 具体的には、複数のクラスの1つをピクセルに割り当てるという問題はセマンティックセグメンテーションとして知られている。 0.71
As for the problem of assigning a different label to a pixel for different instances of a semantic class, it is known as instance segmentation [10]. セマンティッククラスの異なるインスタンスに対して異なるラベルをピクセルに割り当てる問題は、インスタンスセグメンテーション [10]として知られている。 0.66
The latter is more challenging and provides useful information in several application domains [1]. 後者はより困難で、いくつかのアプリケーションドメインで有用な情報を提供する[1]。 0.69
Cell counting solutions, a common application for automatic image analysis, often avoids instance segmentation. 自動画像解析の一般的なアプリケーションであるセルカウントソリューションは、しばしばインスタンスのセグメンテーションを避ける。 0.75
For example, Weidi Xie et al [23] used counting estimation in cell clusters and a Convolutional Neural Network (CNN) for cell density estimation. 例えば、Weidi Xieら[23]は、セルクラスタのカウント推定と、セル密度推定のための畳み込みニューラルネットワーク(CNN)を使用した。 0.77
However, precise instance detection is essential in cell tracking and individual cell behavior analysis [3]. しかし、正確なインスタンス検出は、細胞追跡と個々の細胞行動分析に必須である [3]。 0.87
Cell instance segmentation different challenges such as intensity saturation and overlapping edges [1] that can hinder segmentation accuracy. セルインスタンスのセグメンテーションは、強度飽和や重なり合うエッジ[1]など、セグメンテーションの精度を阻害するさまざまな課題がある。 0.59
Noise and poor contrast caused by variable molecule staining concentration are common drawbacks in cell imaging. 可変分子染色濃度によるノイズとコントラストの低下は、細胞イメージングにおける一般的な欠点である。 0.70
Furthermore, the low number of manually annotated samples is a frequent limitation, specially for CNN-based approaches, as expert´s knowledge is crucial to generate ground-truth data. さらに、手作業でアノテートされたサンプルは少なく、特にcnnベースのアプローチでは、専門家の知識が真正なデータを生成するために重要であるため、しばしば制限される。
訳抜け防止モード: さらに、手動で注釈付けされたサンプルの少ない数は、頻繁に制限される。 特に CNN - ベースのアプローチ 専門家の知識は -真理データ。
0.63
Dealing with unbalanced datasets is another recurrent issue, since foreground and overlapping cell pixels are much lower than background pixels [6]. 前景と重なり合うセルピクセルはバックグラウンドピクセルよりもずっと低いので、不均衡なデータセットを扱うことも再帰的な問題です [6]。 0.65
In this paper, we devise a novel CNN architecture based on the popular UNet [19] and the distance transform morphological operator [5] to jointly improve instance segmentation accuracy. 本稿では,一般的な unet [19] と距離変換モルフォロジー演算子 [5] に基づく新しい cnn アーキテクチャを考案し,協調してインスタンスセグメンテーション精度を向上させる。 0.76
Section 2 presents related work in the field of cell instance segmentation. 第2節は、細胞インスタンスセグメンテーションの分野における関連する研究を示す。 0.53
Later, the proposed method is detailed in Section 3. その後,提案手法を第3節で詳述する。 0.77
Section 4 briefly describes the methods and datasets used to subsequently 第4節 後で使用するメソッドとデータセットを簡潔に説明します。 0.55
英語(論文から抽出)日本語訳スコア
Image analysis by ensembles of convolutional neural networks 畳み込みニューラルネットワークのアンサンブルによる画像解析 0.79
3 Fig. 1. 3 フィギュア。 1. 0.71
Rectangular mask (left) and its original distance transform (right). 長方形のマスク(左)とその元の距離変換(右)。 0.71
The inverse of the distance transform is subsequently computed to provide high intensities to border pixels. 距離変換の逆はその後計算され、ピクセルの境界に高い強度を与える。 0.69
define the experiments. Results are discussed in Section 5. 実験を定義する。 結果は第5節で議論される。 0.75
Finally, conclusions and future lines of research are described in Section 6. 最後に第6節で結論と今後の研究方針について述べる。 0.66
2 Related Work Image segmentation is a well-studied and documented problem among the image processing, pattern recognition and machine learning communities. 2 関連作業 画像セグメント化は、画像処理、パターン認識、機械学習コミュニティの間でよく研究され文書化された問題である。 0.71
Several methods have been proposed for cell segmentation [13], which rely on thresholding [18] or active contours [24] approaches, among others. 閾値[18]または活性輪郭[24]アプローチに依存する細胞セグメンテーション[13]には,いくつかの方法が提案されている。 0.87
Additionally, the Fully Convolutional Network (FCN) [10] inspired U-net, which feeds up-sampling layers with the output of different down-sampling layers, enforcing global information at fixed scales [19]. さらに、FCN(Fully Convolutional Network) [10]は、異なるダウンサンプリング層の出力をアップサンプリング層に供給し、固定スケールでグローバル情報を強制するU-netにインスピレーションを与えた[19]。 0.81
According to different approaches to mixing local and global information, in this work, we combine the feed subsequent layers with data from previous convolutions at different scales and pre-process morphological operators directly in the model input. 局所的および大域的な情報を混合する異なるアプローチにより、本研究では、後続の層を、異なるスケールで以前の畳み込みからのデータと、モデル入力で直接プロセス前の形態素演算子とを組み合わせる。 0.70
This way, our proposal enforces both local and global information by learning morphological transformations from the data. このように,本提案では,データから形態素変換を学習することにより,局所的情報とグローバル情報の両方を強制する。 0.57
3 Proposed method Our segmentation method is based on the well-known U-net architecture [19]. 3 提案方法 セグメンテーション手法は有名な u-net アーキテクチャ [19] に基づいている。 0.75
We propose to enforce cell morphological information in a CNN by estimating the inverse of the distance transform. 距離変換の逆方向を推定することにより,CNN内の細胞形態情報を強制することを提案する。 0.62
Note that the original distance transform calculates the closest Euclidean distance to a background pixel for each foreground pixel. なお、原距離変換は、各フォアグラウンド画素の背景画素に対する最も近いユークリッド距離を算出する。 0.75
Figure 1 shows this transformation applied to a rectangular mask, where border pixels have lower intensities. 図1はこの変換を、境界画素の強度が低い長方形のマスクに適用している。 0.74
Differently, the inverse of the distance transform is thus computed to provide high intensities to border pixels. 異なることに、距離変換の逆は計算され、ピクセルの境界に高い強度を与える。 0.67
Specifically, an encoder-decoder classifier with a Rectified Linear Unit (ReLU) activation is employed. 具体的には、整流線形単位(relu)アクティベーションを有するエンコーダ・デコーダ分類器を用いる。 0.73
This classifier is fed with fluorescence microscopy images of cells. この分類器は、細胞の蛍光顕微鏡画像で供給される。 0.69
The proposed Euclidean distance estimator learns the inverse distance ユークリッド距離推定器は逆距離を学習する 0.72
英語(論文から抽出)日本語訳スコア
4 Zamora-C´ardenas et al 4 Zamora-C ́ardenas et al 0.72
Table 1. Fine-tuned parameters for all models. 表1。 全モデルの微調整パラメータ。 0.75
Training Time (m/epoch) 研修時間 (m/epoch) 0.74
Prediction Time (m/epoch) Batch Size 予測時間 (m/epoch)バッチサイズ 0.75
UNet1 DDT DDT + UNet1 DDT + UNet2 ∼3.64 ∼3.61 ∼0.35 ∼0.34 10 10 UNet1 DDT DDT + UNet1 DDT + UNet2 シュ3.64 シュ3.61 シュ0.35 シュ0.34 10 10 0.51
∼10.50 ∼1.42 10 ∼10.50 ∼1.42 10 0.47
∼7.53 ∼0.66 10 ∼7.53 ∼0.66 10 0.47
Training Size Validation Size Learning Rate Loss Function 学習サイズ検証サイズ学習率損失関数 0.69
Optimizer 3690 3690 930 930 0.001 0.001 CE MAE Adam Adam 最適化 3690 3690 930 930 0.001 ce メイ・アダム 0.68
3690 930 0.001 CE 3690 930 0.001 CE 0.84
Adam 3690 930 0.001 CE アダム 3690 930 0.001 CE 0.71
Adam transform (Deep Distance Transformer (DDT) or backbone-model) of the instance as a binary mask of the input image. アダム インスタンスを入力イメージのバイナリマスクとして変換する(deep distance transformer (ddt)またはbackbone-model)。 0.67
The DDT encourages the U-net to learn morphological information from the image. DDTは、画像から形態情報を学ぶことをU-netに促す。 0.61
The following top-models are integrated in the DDT back-model: 以下のトップモデルはDDTバックモデルに統合されます。 0.62
1. DDT + UNet1: The DDT output is fed to a three-class (i.e., foreground, background or border pixels) predictor using the Border Transform Groundtruth (BTGT). 1. DDT + UNet1: DDT出力は、Border Transform Groundtruth (BTGT)を使用して3クラス(前景、背景、境界画素)の予測器に供給される。 0.82
2. DDT + UNet2: Considering that DDT + UNet1 could ignore relevant texture information, an extra pipeline with two information channels is included. 2. DDT + UNet2: DDT + UNet1は関連するテクスチャ情報を無視できるので、2つの情報チャネルを持つ追加パイプラインが含まれる。 0.83
The first and second channels are the DDT output and the original image, respectively. 第1および第2のチャンネルは、それぞれDDT出力と原画像である。 0.76
Table 1 shows the parameters used to train our proposed U-Net based pipelines 表1は、提案したU-Netベースのパイプラインをトレーニングするためのパラメータを示しています。 0.49
with an average log of the training and testing times in minutes per epoch. 平均的なトレーニング時間とテスト時間のログは、エポック毎に数分です。 0.69
An advantage of our approach over [6] is the stability and speed provided during the training stage. 6] に対する我々のアプローチの利点は、トレーニング段階で提供される安定性とスピードです。 0.86
In our experiments, the loss functions proposed by [6] hinders the model convergence. 実験では, [6] が提案する損失関数はモデル収束を妨げる。 0.81
Our methodology is similar to [4] as morphological pre-processing is also incorporated. 形態素前処理も取り入れられているので,本手法は[4]と類似している。 0.55
Differently, the presented model learns enriched image textures using pixel-wise labeled data. 異なるモデルでは、ピクセル単位のラベル付きデータを用いて、強化された画像テクスチャを学習する。 0.51
Instead of performing morphological operations directly in the input data [4], we train an U-net architecture with the distance transform of the ground-truth, thus allowing the model to estimate the same transform for all unlabeled samples. 入力データ [4] で形態的操作を直接行う代わりに、地上構造からの距離変換でU-netアーキテクチャを訓練することにより、モデルが全ての未ラベルサンプルに対して同じ変換を推定できるようにする。 0.76
4 Datasets The Broad Bioimage Benchmark Collection BBBC006v1 dataset [9] is used in this study. 4つのデータセット 本研究では,Broad Bioimage Benchmark Collection BBBC006v1 データセット [9] を用いる。 0.66
It consists of Human U2OS cells marked with Hoechst 33342. Hoechst 33342でマークされたヒトU2OS細胞で構成されている。 0.56
The Hoechst 33342 is a cellular marker widely employed to stain genomic DNA in fluorescence microscopy images. hoechst 33342は蛍光顕微鏡画像におけるゲノムdnaの染色に広く用いられている細胞マーカーである。 0.74
Due to its staining prowess, the Hoechst 33342 is 染色技術により、ホーチスト 33342 は小型化されている。 0.52
英語(論文から抽出)日本語訳スコア
Image analysis by ensembles of convolutional neural networks 畳み込みニューラルネットワークのアンサンブルによる画像解析 0.79
5 Fig. 2. 5 フィギュア。 2. 0.71
BBBC006 original image with enhanced contrast (left) and its corresponding ground-truth (right). BBBC006オリジナルのコントラスト(左)とそれに対応する地上(右)の画像。 0.78
Fig. 3. Original ground-truth image (left), DTGT image (middle) and BTGT image (right). フィギュア。 3. オリジナルの地上画像(左)、dtgt画像(中)、btgt画像(右)。 0.61
commonly used to visualize nuclei and mitochondria. 核とミトコンドリアを可視化するのによく用いられる。 0.58
It is also widely used in diagnostics, apoptosis, single nucleotide polymorphism, nuclei acid quantification, epilepsy and cancer behavior analysis [20]. また、診断、アポトーシス、単一ヌクレオチド多型、核酸定量化、てんかん、癌行動解析 [20]にも広く用いられている。 0.64
This dataset is composed by 768 images with a resolution of 696×520 pixels in 16-bit TIF format. このデータセットは、解像度696×520ピクセルの768の画像を16ビットのTIFフォーマットで構成する。 0.71
Each sample includes the corresponding ground-truth image, encoding background pixels with 0. 各サンプルは対応する接地画像を含み、背景画素を0。 0.70
Foreground pixels use different values for labeling each cell instance. 前景画素は各セルインスタンスのラベル付けに異なる値を使用する。 0.66
To train our models, all samples were tiled to 256×256 pixels (6 tiles per sample = 4608 images). モデルのトレーニングには、すべてのサンプルを256×256ピクセル(サンプルあたり6タイル=4608画像)にタイル付けしました。 0.67
Figure 2 shows an original image of the dataset, with its corresponding ground-truth and a copy of it with enhanced contrast to visualize the image content. 図2は、データセットの原画像とその対応する接地構造と、画像内容の可視化のためのコントラストの強化されたコピーを示す。 0.78
Two transformations were also applied to the ground-truth. 地表面にも2つの変換が適用された。 0.53
The first transformation referred to the distance transform (Distance Transform Ground-truth (DTGT)), while the second generated information corresponding to the border between instances (BTGT). 第1の変換は距離変換(Distance Transform Ground-Truth (DTGT))を参照し、第2の変換はインスタンス間の境界(BTGT)に対応する情報を生成する。 0.81
Specifically, BTGT marked pixels as borders if their 3×3 neighborhood contained elements from the outline of another instance. 特にBTGTは、3×3の近傍に別のインスタンスのアウトラインの要素が含まれている場合、ピクセルを境界としてマークした。 0.56
Figure 3 displays the original ground-truth, DTGT and BTGT images. 図3は、元の接地木、DTGT、BTGTの画像を表示する。 0.62
5 Experiments and Results We used a vanilla three-class U-net architecture to assess the DDT improvement over the baseline classification. 5 実験と結果 ベースライン分類よりもddtの改善を評価するために,バニラ3クラスu-netアーキテクチャを用いた。 0.73
This model was trained with both the original dataset and the BTGT. このモデルは、オリジナルのデータセットとBTGTの両方でトレーニングされた。 0.68
英語(論文から抽出)日本語訳スコア
6 Zamora-C´ardenas et al 6 Zamora-C ́ardenas et al 0.72
Table 2. Segmentation accuracy using border displacement error. 表2。 境界変位誤差を用いたセグメンテーション精度 0.77
Pipeline UNet1 (baseline) 0.628 ± 0.199 0.930 ± 0.015 0.946 ± 0.006 DDT + UNet1 0.821 ± 0.149 0.924 ± 0.006 0.922 ± 0.010 DDT + UNet2 0.614 ± 0.215 0.938 ± 0.004 0.938 ± 0.004 パイプライン UNet1 (baseline) 0.628 ± 0.199 0.930 ± 0.015 0.946 ± 0.006 DDT + UNet1 0.821 ± 0.149 0.924 ± 0.006 0.922 ± 0.010 DDT + UNet2 0.614 ± 0.215 0.938 ± 0.004 0.938 ± 0.004 0.61
BDE WDMC F1 BDE WDMC F1 0.83
The DDT was trained for 50 epochs through the Mean Absolute Error (MAE) loss function. DDTは平均絶対誤差(MAE)損失関数を用いて50エポックの訓練を行った。 0.81
Empirical tests demonstrated that the MAE provides higher accuracy than the Mean Squared Error (MSE). 実験により、MAEは平均正方形誤差(MSE)よりも高い精度を提供することが示された。
訳抜け防止モード: 実証実験は MAEは平均正方形誤差(MSE)よりも高い精度を提供する。
0.78
The U-net1 (baseline), DDT + UNet1 and DDT + UNet2 models were trained end-to-end using the same training observations, and the cross-entropy loss. U-net1(ベースライン)、DDT+UNet1、DDT+UNet2モデルは、同じトレーニング観測とクロスエントロピー損失を用いてエンドツーエンドにトレーニングされた。 0.65
As aforementioned, the BBBC006v1 dataset was utilized to train both U-net1 (baseline) and DDT models. 前述のように、BBBC006v1データセットはU-net1(ベースライン)とDDTモデルのトレーニングに使用された。 0.61
The DDT output was automatically fed into the DDT + UNet1 / UNet2 top-models. DDT出力はDDT + UNet1 / UNet2トップモデルに自動的に入力される。 0.78
The DDT + UNet2 approach used both feature extractors to enforce texture and morphological information. DDT + UNet2アプローチでは、両方の特徴抽出器を使用してテクスチャと形態情報を強制した。
訳抜け防止モード: 両特徴抽出器を用いたDDT+UNet2アプローチ テクスチャと形態情報を強制するのです
0.69
A repository with the code can be found in its website1. コード付きのリポジトリは、webサイト1.1にある。 0.68
Inverse distance transformed images were normalized within the range {0, 1}. 逆距離変換画像は範囲 {0, 1} 内で正規化される。 0.78
All models were trained using 5-fold cross validation. すべてのモデルは5倍のクロス検証を使用してトレーニングされた。 0.50
The number of training and testing images for each fold was 3687 and 921, respectively. 各折りたたみのトレーニング画像とテスト画像は,それぞれ3687枚と921枚であった。 0.84
Edge estimation is crucial for cell instance segmentation, thus specific border accuracy estimation metrics were selected. エッジ推定はセルインスタンスのセグメンテーションに不可欠であるため、特定の境界精度推定指標が選択された。 0.65
The Boundary Displacement Error (BDE) [22] averages the displacement error of boundary pixels between two images, in which lower values indicate better matches. BDE (Bundary Displacement Error) [22] は2つの画像間の境界画素の変位誤差を平均し、より低い値が一致したことを示す。 0.81
The Weighted Dice Multiclass Coefficient (WDMC) relies on the Sørensen–Dice similitude index [2] (overlapping), so values closer to 1 denote greater similitude. 重み付き dice multiclass coefficient (wdmc) は sørensen–dice similitude index [2] (オーバーラップ) に依存するため、1 に近い値はより高い同値を示す。 0.77
The WDMC fine-tuning was conducted by calculating each class separately and performing a weighted sum. wdmcの微調整は,各クラスを別々に計算し,重み付け和を行った。 0.62
In this work, more relevance was given to the correct prediction of border pixels using the following weights found experimentally: F oreground : 0.3, Background : 0.3 and Border : 0.4. 本研究は, Fオアグラウンド:0.3, 背景 : 0.3, 境界 : 0.4の重みを用いた境界画素の正確な予測に, より関連性を示した。 0.82
Table 2 shows a comparison of the tested pipelines. 表2はテストパイプラインの比較である。 0.68
The average and standard deviation are the best values for each metric. 平均偏差と標準偏差は各指標の最良の値である。 0.80
Results show that the DDT + UNet2 model yields a slightly higher accuracy when compared to the UNet1 (baseline) model, for both BDE and WDMC measures. その結果、DDT + UNet2 モデルは、BDE と WDMC の両測度において、UNet1 (ベースライン) モデルと比較して若干高い精度が得られることがわかった。 0.68
These metrics demonstrated to be more sensitive to edge estimation performance, in spite to more common metrics as the F1-score, and intersection over the union in our empirical tests. これらの指標は、F1スコアのような一般的な指標や、経験的テストにおけるユニオンとの交叉にもかかわらず、エッジ推定性能に敏感であることを示した。 0.60
Table 3 shows the average precision, recall and F1 score of each of the proposed pipelines. 表3は、提案された各パイプラインの平均精度、リコール、F1スコアを示す。 0.69
The DDT + UNet1 model performs slightly better than the UNet1 (baseline) according to the WDMC, but it has a lower BDE accuracy. DDT + UNet1モデルは、WDMCによるとUNet1(ベースライン)よりも若干優れているが、BDE精度は低い。 0.81
The DDT + UNet2 model outperforms the others, which suggests that the combination of texture information and inverse distance transform improves the overall model performance. DDT+UNet2モデルは他のモデルよりも優れており、テクスチャ情報と逆距離変換の組み合わせが全体のモデル性能を向上させることを示唆している。 0.70
1 https://github.com/w izaca23/BBBC006-Inst ance-Segmentation 1 https://github.com/w izaca23/BBBC006-Inst ance-Segmentation 0.31
英語(論文から抽出)日本語訳スコア
Image analysis by ensembles of convolutional neural networks 畳み込みニューラルネットワークのアンサンブルによる画像解析 0.79
7 Table 3. Precision, recall and F1 scores for each U-Net pipeline. 7 表3。 各U-Netパイプラインの精度、リコール、F1スコア。 0.75
Pipeline UNet1 DDT + UNet1 DDT + UNet2 Precision 0,944±0,008 0,950±0,007 Recall 0,946±0,006 Pipeline UNet1 DDT + UNet1 DDT + UNet2 Precision 0,944±0,008 0,950±0,007 Recall 0,946±0,006 0.47
0,931±0,006 0,948±0,002 0,938±0,004 0,931±0,006 0,948±0,002 0,938±0,004 0.21
0,923±0,013 0,928±0,013 0,922±0,010 0,923±0,013 0,928±0,013 0,922±0,010 0.21
F1 Table 4. p-values of the Wilcoxon test. F1 表 4. ウィルコクソン試験のp-値。 0.74
P-value 0.02621 1.3261 × 10−05 2.3498 × 10−05 P-value 0.02621 1.3261 × 10−05 2.3498 × 10−05 0.50
BDE WDMC F1 BDE WDMC F1 0.82
To assess the statistical significance of the results, we performed a Wilcoxon matched-pairs test. 結果の統計的意義を評価するため,wilcoxon matched-pairs testを行った。 0.80
It helps to corroborate the similarity or difference between the UNet1 (baseline) model and DDT + UNet1 / UNet2 model performance. unet1 (baseline) モデルと ddt + unet1 / unet2 モデルのパフォーマンスの類似性や相違点を補うのに役立つ。 0.79
Specifically, we generated 26 random samples from a set of 921 testing images (each with 300 images). 具体的には、921の試験画像(それぞれ300の画像)から26のランダムなサンプルを生成しました。 0.79
Testing images were extracted from the same validation fold, so they were not used for training. テスト画像は同じ検証フォルダから抽出されたため、トレーニングには使用されなかった。 0.78
Note that we selected the fold where both models performed better. どちらのモデルもより良く機能する折りたたみ式を選択しました。 0.58
The Wilcoxon test was performed for the BDE, WDMC. ウィルコクソン試験はBDE、WDMCで実施された。 0.64
The null hypothesis was formulated as follows: one of the models performs better than the other. ヌル仮説は次のように定式化された: モデルのうちの1つは、他のモデルよりも優れている。 0.55
Table 4 shows the p-values computed for each metric with 0.05 of significance. 表4は、重要度0.05のメートルごとに計算されたp値を示す。 0.59
They indicate that there is a significant difference between both models with p < 0.05. p < 0.05 の両モデルの間に有意差があることが示されている。 0.74
The BDE is close to be not statistically conclusive, however the WDMC presents a more overwhelming statistical difference. BDEは統計的に決定的なものではないが、WDMCはより圧倒的な統計差を示す。 0.77
6 Discussion and Conclusions The proposed method outperforms the UNet1 (baseline), particularly when border prediction metrics (e g , BDE and the WDMC ) are computed. 6 議論と結論 提案手法はUNet1(ベースライン)よりも優れており,特に境界予測指標(BDE,WDMCなど)が計算される場合の精度が高い。 0.74
Both metrics are more relevant and appropriate to measure segmentation accuracy, as tracking methods usually calculate the centroid based on the object edges, and also post-processing effects can correct any holes in the object of interest. 追跡手法は通常、対象のエッジに基づいてセントロイドを計算するため、どちらの指標もセグメンテーションの精度を測るのに適切であり、また後処理効果は興味のある対象の穴を修正できる。 0.75
Using the Dice coefficient or the F1-score gives th same weight to all the pixels, which can give misleading interpretations of the image segmenatation performance. Dice係数やF1スコアを用いることで、すべてのピクセルに同じ重みを与え、画像分離性能の誤解を招く可能性がある。 0.69
However, the DDT output seems to be very noise sensitive (see Figure 4). しかし、DDT出力は非常にノイズに敏感であるようだ(図4参照)。 0.79
The DDT often amplifies noise when few cells are present, thus hindering the top-model predictions (see Figure 5). DDTはセルが少ないとノイズを増幅し、トップモデルの予測を妨げてしまう(図5参照)。 0.70
These faulty predictions due to the amplified noise might degrade the benefit of including morphological information. これらのノイズの増幅による誤った予測は、形態的情報を含む利点を損なう可能性がある。 0.62
Adding the original image to the top model along with the inverse distance transform seems to improve the DDT output accuracy. 逆距離変換とともに原画像をトップモデルに付加することで、DDT出力精度が向上したようである。
訳抜け防止モード: 逆距離変換と共に原画像をトップモデルに追加する DDT出力の精度は向上しているようだ。
0.89
Moreover, it also boosts the overall model performance thanks to the texture information provided. さらに、提供されるテクスチャ情報により、全体的なモデル性能も向上する。 0.80
Our results also suggest the possibility to include the DDT output as a post-processing in order to remove artifacts. また, ddt出力を後処理として含み, アーティファクトを除去する可能性も示唆した。 0.66
The Wilcoxon statistical test was critical to properly analyse the significance of the obtained results. ウィルコクソン統計試験は得られた結果の意義を適切に分析するために重要である。 0.71
英語(論文から抽出)日本語訳スコア
8 Zamora-C´ardenas et al 8 Zamora-C ́ardenas et al 0.72
Fig. 4. Original image with enhanced contrast (left), prediction output (middle), and current DTGT (right). フィギュア。 4. 強調コントラスト(左)、予測出力(中)、現在のDTGT(右)のオリジナル画像。 0.64
Fig. 5. Segmentations obtained from the U-Net1 (baseline) model (first), DDT + UNet1 (second ), DDT + U-Net2 (third ) and BTGT (fourth). フィギュア。 5. u-net1 (baseline) model (first)、ddt + unet1 (second )、ddt + u-net2 (third )、btgt (fourth) から得られたセグメンテーション。 0.65
The DDT + U-Net2 outperforms the others due to the reduced number of false positives compared with the U-Net1 (baseline) and DDT + U-Net1 models, respectively. DDT + U-Net2 は U-Net1 (ベースライン) と DDT + U-Net1 モデルと比較してそれぞれ偽陽性数の減少により他のモデルよりも優れている。 0.73
The injection of morphological knowledge can benefit deep CNN architectures to enhance instance segmentation accuracy [4]. 形態素知識の注入は、インスタンスセグメンテーションの精度を高めるために深いcnnアーキテクチャに役立つ[4]。 0.64
Differently from [6], in which morphological information was used to weight the loss function, our model still remains simple and easy to train. 損失関数の重み付けに形態情報が使われた[6]と異なり、我々のモデルは依然としてシンプルで訓練が容易である。 0.81
The proposed back-bone model learns the inverse distance transform by using pixel-wise labeling and adding instance-wise morphological information. 提案したバックボーンモデルは,画素ワイドラベリングとインスタンスワイド形態情報の追加により,逆距離変換を学習する。 0.62
The work in [4] utilized simple and traditional preprocessing methods. 4]の作業は、単純で伝統的な前処理方法を利用した。 0.70
The behavior of other CNNs [8] after injecting morphological information will be addressed in the future. 形態情報注入後の他のcnn [8] の挙動については,今後対応していく。 0.68
Indeed, additional experiments with different datasets and CNNs are required to provide further evidence regarding the advantages of enriching the image with instance-wise morphological information. 実際、異なるデータセットとCNNによる追加実験は、画像にインスタンスワイドな形態情報を加える利点に関するさらなる証拠を提供するために必要である。 0.61
To reduce the labeling dependency, semi-supervised learning [17], data augmentation techniques and generative models [21] will be employed to enlarge our dataset and explore the advantages of adding morphological information. ラベル付けの依存性を低減するため、データ拡張技術と生成モデル [21] を用いて、データセットを拡大し、形態情報を追加する利点を探求する。
訳抜け防止モード: ラベル付けの依存性を減らすため、半教師付き学習[17]。 データ強化技術と生成モデル[21]が採用されます データセットを拡大し 形態情報を追加する利点を探求します
0.78
References 1. Bai, M., Urtasun, R., ’Deep watershed transform for instance segmentation’, in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017, pp. 参考文献 1. Bai, M., Urtasun, R., ’Deep watershed transform for instance segmentation’, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017 pp。 0.76
5221-5229. 5221-5229. 0.71
英語(論文から抽出)日本語訳スコア
Image analysis by ensembles of convolutional neural networks 畳み込みニューラルネットワークのアンサンブルによる画像解析 0.79
9 2. Bernard, O., Friboulet, D., Thevenaz, P., Unser, M., ’Variational b-spline level-set: a linear filtering approach for fast deformable model evolution’, IEEE Transactions on Image Processing, 2009, 18, pp.1179-1191. 9 2. Bernard, O., Friboulet, D., Thevenaz, P., Unser, M., ’Variational b-spline level-set: a linear filtering approach for fast deformable model evolution’, IEEE Transactions on Image Processing, 2009, pp. 1179-1191。 0.88
3. Calderon-Ramirez, S., Saenz, A., Mora, R., Siles, F., Orozco, I., Buemi, M., ’DeWAFF: A novel image abstraction approach to improve the performance of a cell tracking system’, in Bioinspired Intelligence (IWOBI), 2015 4th International Work Conference on IEEE, 2015, pp. 3. Calderon-Ramirez, S., Saenz, A., Mora, R., Siles, F., Orozco, I., Buemi, M., ’DeWAFF: a novel image abstract approach to improve the performance of a cell tracking system’, in Bioinspired Intelligence (IWOBI), 2015 4th International Work Conference on IEEE, 2015 pp。 0.85
81-88. 4. Decenciere, E., Velasco-Forero, S., Min, F., Chen, J., Burdin, H., Gauthier, G., Lay, B., Bornschloegl, T., Baldeweck, T., ’Dealing with topological information within a fully convolutional neural network’, in International Conference on Advanced Concepts for Intelligent Vision Systems, 2018, pp. 81-88. 4. Decenciere, E., Velasco-Forero, S., Min, F., Chen, J., Burdin, H., Gauthier, G., Lay, B., Bornschloegl, T., Baldeweck, T., ’Dealing with topological information within a fully convolutional neural network’, International Conference on Advanced Concepts for Intelligent Vision Systems, 2018, pp.. ^ “Decciere, E., Velasco-Forero, S., Min, F。 0.80
462-471. 5. 462-471. 5. 0.78
Grevera, G. J., ’Distance transform algorithms and their implementation and eval- Grevera, G. J., 'Distance transform algorithm and their implementation and eval- 0.96
uation’, in Deformable Models, 2007, pp. uation', in Deformable Models, 2007, pp。 0.71
33-60. 6. Guerrero-Pena, F. A., Fernandez, P. D. M., Ren, T. I., Yui, M., Rothen-berg, E., Cunha, A., ’Multiclass weighted loss for instance segmentation of cluttered cells’, arXiv:1802.07465, 2018. 33-60. 6. Guerrero-Pena, F. A., Fernandez, P. D. M., Ren, T. I., Yui, M., Rothen-berg, E., Cunha, A., ’Multiclass weighted loss for example segmentation of cluttered cells’, arXiv:1802.07465, 2018。 0.82
7. Gupta, S., Girshick, R., Arbelaez, P., Malik, J., ’Learning rich features from rgb-d images for object detection and segmentation’, in European Conference on Computer Vision, 2014, pp. 7. Gupta, S., Girshick, R., Arbelaez, P., Malik, J., ’Learning rich features from rgb-d images for object detection and segmentation’. European Conference on Computer Vision, 2014 pp.. 0.85
345-360. 8. 345-360. 8. 0.78
He, K., Gkioxari, G., Dollar, P., Girshick, R., ’Mask r-cnn’, in Computer Vision He, K., Gkioxari, G., Dollar, P., Girshick, R., ’Mask r-cnn’, in Computer Vision 0.92
(ICCV), IEEE International Conference on, 2017, pp. (ICCV),IEEE International Conference on 2017, pp。 0.63
2980-2988. 2980-2988. 0.71
9. Ljosa, V., Sokolnicki, K. L., Carpenter, A. E., ’Annotated high-throughput mi- 9. ljosa, v., sokolnicki, k. l., carpenter, a. e.'annotated high-throughput mi- 0.83
croscopy image sets for validation’, Nature methods, 2012, 9, pp. croscopy image sets for validation’, nature methods, 2012, 9, pp。 0.77
637-637. 10. 637-637. 10. 0.78
Long, J., Shelhamer, E., Darrell, T., ’Fully convolutional networks for semantic segmentation’,in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp. long, j., shelhamer, e., darrell, t., ’fully convolutional networks for semantic segmentation’, in proceedings of the ieee conference on computer vision and pattern recognition, 2015 pp. (英語) 0.75
3413-3440. 3413-3440. 0.71
11. Mahesh, M., ’Fundamentals of medical imaging’, Medical Physics, 2011, 38, pp. 11. Mahesh, M., ’Fundamentals of Medical Imaging’, Medical Physics, 2011, 38, pp。 0.82
1735-1735. 1735-1735. 0.71
12. McGranahan, N., Swanton, C., ’Clonal heterogeneity and tumor evolution: past, 12. McGranahan, N., Swanton, C., 'Clonal heterogeneity and tumor evolution: past, 0.85
present, and the future’, Cell, 2017, 168, pp. present, and the future’, cell, 2017 168, pp。 0.74
613-628. 13. 613-628. 13. 0.78
Meijering, E., ’Cell segmentation: 50 years down the road’, IEEE Signal Processing Meijering, E., ’Cell segmentation: 50 years down the road’, IEEE Signal Processing 0.85
Magazine, 2012, 29, pp. 同上、2012年、29頁。 0.46
140-145. 14. 140-145. 14. 0.78
Molina-Cabello, M. A., L´opez-Rubio, E., Luque-Baena, R. M., Rodr´ıguez-Espinosa, M. J., Thurnhofer-Hemsi, K., ’Blood cell classification using the hough transform and convolutional neural networks’, World Conference on Information Systems and Technologies, 2018, pp. Molina-Cabello, M. A., L ́opez-Rubio, E., Luque-Baena, R. M., Rodr ́ıguez-Espinosa, M. J., Thurnhofer-Hemsi, K., ’Blood cell classification using the hough transform and convolutional Neural Network’, World Conference on Information Systems and Technologies, 2018, pp. 0.87
669-678. 15. 669-678. 15. 0.78
Molina-Cabello, M. A., Accino, C., L´opez-Rubio, E., Thurnhofer-Hemsi, K., ’Optimization of Convolutional Neural Network Ensemble Classifiers by Genetic Algorithms’, International Work-Conference on Artificial Neural Networks, 2019, pp. Molina-Cabello, M. A., Accino, C., L ́opez-Rubio, E., Thurnhofer-Hemsi, K., ’Optimization of Convolutional Neural Network Ensemble Classifiers by Genetic Algorithms’, International Work-Conference on Artificial Neural Networks, 2019, pp。 0.92
163-173. 16. 163-173. 16. 0.78
Morgan, S., Watson, J., Twentyman, P., Smith, P., ’Flow cytometric analysis of hoechst 33342 uptake as an indicator of multi-drug resistance in human lung cancer’, British journal of cancer, 1989, 60, pp. Morgan, S., Watson, J., Twentyman, P., Smith, P., ’Flow cytometric analysis of hoechst 33342take as an indicator of multi-drug resistance in human lung cancer”, British Journal of Cancer, 1989, 60, pp。 0.86
282. 17. Papandreou, G., Chen, L. C., Murphy, K. P., Yuille, A. L., ’Weakly-and semisupervised learning of a deep convolutional network for semantic image segmentation’, in Proceedings of the IEEE International Conference on Computer Vision, 2015, pp. 282. 17. Papandreou, G., Chen, L. C., Murphy, K. P., Yuille, A. L., ’Weakly and semisupervised learning of a deep convolutional network for semantic image segmentation’, Proceedings of the IEEE International Conference on Computer Vision, pp. pp. 0.85
1742-1750. 1742-1750. 0.71
18. Phansalkar, N., More, S., Sabale, A., Joshi, M., ’Adaptive local thresholding for detection of nuclei in diversity stained cytology images’, in Communications and Signal Processing (ICCSP), 2011 International Conference on IEEE, 2011, pp. 18. Phansalkar, N., More, S., Sabale, A., Joshi, M., ’Adaptive local thresholding for detection of nuclear in diversity stained cytology images’, in Communications and Signal Processing (ICCSP), 2011 International Conference on IEEE, 2011, pp。 0.83
218-220. 218-220. 0.71
英語(論文から抽出)日本語訳スコア
10 Zamora-C´ardenas et al 10 Zamora-C ́ardenas et al 0.72
19. Ronneberger, O., Fischer, P., Brox, T., ’U-Net: Convolutional networks for biomedical image segmentation’, in International Conference on Medical Image Computing and Computer-Assisted Intervention, 2015, pp. 19. ronneberger, o., fischer, p., brox, t., ’u-net: convolutional networks for biomedical image segmentation', in international conference on medical image computing and computer-assisted intervention, 2015 pp. (英語) 0.85
234-241. 20. 234-241. 20. 0.78
Sabnis, R. W., ’Handbook of biological dyes and stains: synthesis and industrial Sabnis, R. W., 'Handbook of biological dyes and stains: synthesis and industrial 0.90
applications’, John Wiley & Sons, 2010. applications', john wiley & sons, 2010 (英語) 0.64
21. Sixt, L., Wild, B., Landgraf, T., ’Rendergan: Generating realistic labeled data’, 21. Sixt, L., Wild, B., Landgraf, T., ’Rendergan: リアルなラベル付きデータを生成する’。 0.88
Frontiers in Robotics and AI, 2018, 5, pp. Frontiers in Robotics and AI, 2018, 5, pp. 0.85
66. 22. Unnikrishnan, R., Pantofaru, C., Hebert, M., ’Toward objective evaluation of image segmentation algorithms’, IEEE Transactions on Pattern Analysis & Machine Intelligence, 2007, 6, pp. 66. 22. unnikrishnan, r., pantofaru, c., hebert, m., ’toward objective evaluation of image segmentation algorithms’, ieee transactions on pattern analysis & machine intelligence, 2007, 6, pp. (英語) 0.84
929-944. 23. 929-944. 23. 0.78
Xie, W., Noble, J. Xie, W., Noble, J。 0.81
A., Zisserman, A., ’Microscopy cell countingand detection with fully convolutional regression networks’, Computer methods in biomechanics and biomedical engineering: Imaging & Visualization, 2018, 6, pp. a. zisserman, a., 'microscopy cell counting and detection with full convolutional regression networks', computer methods in biomechanics and biomedical engineering: imaging & visualization, 2018, 6, pp. (英語) 0.85
283-292. 24. 283-292. 24. 0.78
Zamani, F., Safabakhsh, R., ’An unsupervised gvf snake approach for white blood cell segmentation based on nucleus’, in Signal Processing, 2006 8th International Conference on IEEE, 2006, 2. zamani, f., safabakhsh, r., ’an unsupervised gvf snake approach for white blood cell segmentation based based based nucleus’ in signal processing, 2006 8th international conference on ieee, 2006 2 0.75
25. Alfaro, E., Fonseca, X.B., Albornoz, E.M., Mart´ınez, C.E., Calderon-Ramirez, S.: A brief analysis of u-net and mask r-cnn for skin lesion segmentation. 25. Alfaro, E., Fonseca, X.B., Albornoz, E.M., Mart ́ınez, C.E., Calderon-Ramirez, S.: a brief analysis of u-net and mask r-cnn for skin lesion segmentation。 0.82
In: 2019 IEEE International Work Conference on Bioinspired Intelligence (IWOBI). 2019年IEEE International Work Conference on Bioinspired Intelligence (IWOBI)に参加。 0.77
pp. 000123–000126. pp. 000123–000126. 0.78
IEEE (2019) IEEE (2019) 0.85
26. Calderon-Ramirez, S., Barrantes, J., Schuster, J., Mendez, M., Begera, J.: Automatic calibration of the deceived non local means filter for improving the segmentation of cells in fluorescence based microscopy. 26. calderon-ramirez, s., barrantes, j., schuster, j., mendez, m., begera, j.: 蛍光顕微鏡による細胞のセグメンテーションを改善するための偽の非局所的フィルターの自動キャリブレーション。 0.80
In: 2018 International Conference on Biomedical Engineering and Applications (ICBEA). 2018年、ICBEA(International Conference on Biomedical Engineering and Applications)に参加。 0.82
pp. 1–6. IEEE (2018) pp. 1–6. IEEE (2018) 0.80
27. Calderon-Ramirez, S., Moya, D., Cruz, J.C., Valverde, J.M. 27. Calderon-Ramirez, S., Moya, D., Cruz, J.C., Valverde, J.M. 0.86
: A first glance on the enhancement of digital cell activity videos from glioblastoma cells with nuclear staining. 核染色によるグリオブラスト腫細胞からのデジタル細胞活動ビデオの増強についての一考察 0.72
In: 2016 IEEE 36th Central American and Panama Convention (CONCAPAN XXXVI). 2016年、IEEE 36th Central American and Panama Convention (CONCAPAN XXXVI)。 0.74
pp. 1–6. IEEE (2016) pp. 1–6. IEEE (2016) 0.80
28. Calderon-Ramirez, S., Murillo-Hernandez, D., Rojas-Salazar, K., Calvo-Valverde, L.A., Yang, S., Moemeni, A., Elizondo, D., Lopez-Rubio, E., Molina-Cabello, M.: Improving uncertainty estimations for mammogram classification using semisupervised learning. 28. Calderon-Ramirez, S., Murillo-Hernandez, D., Rojas-Salazar, K., Calvo-Valverde, L.A., Yang, S., Moemeni, A., Elizondo, D., Lopez-Rubio, E., Molina-Cabello, M。 0.82
Institute of Electrical and Electronics Engineers (2021) 電気電子工学研究所(2021年) 0.72
29. Calvo, Iv´an and Calderon-Ramirez, Saul and Torrents-Barrena, Jordina and Mu˜noz, Erick and Puig, Domenec: Assessing the impact of a preprocessing stage on deep learning architectures for breast tumor multi-class classification with histopathological images. 29. Calvo, Iv ́an and Calderon-Ramirez, Saul and Torrents-Barrena, Jordina and Mu snoz, Erick and Puig, Domenec: 胸部腫瘍のマルチクラス分類のためのディープラーニングアーキテクチャに対する前処理ステージの影響を評価する。 0.81
In: High Performance Computing: 6th Latin American Conference, CARLA 2019, Turrialba, Costa Rica, September 25–27, 2019, Revised Selected Papers. In: High Performance Computing: 6th Latin American Conference, CARLA 2019, Turrialba, Costa Rica, September 25–27, Revised Selected Papers。 0.85
vol. 1087, p. 262. Vol. 1087年、p.262。 0.69
Springer Nature (2020) springer (複数形 springers) 0.32
30. S´aenz, A., Calderon-Ramirez, S., Castro, J., Mora, R., Siles, F.: Deceived bilateral filter for improving the automatic cell segmentation and tracking in the nf-kb pathway without nuclear staining. 30. S ́aenz, A., Calderon-Ramirez, S., Castro, J., Mora, R., Siles, F.: 核染色のないnf-kb経路において, 自動細胞分画を改善し, 追跡する二元フィルタを考案した。
訳抜け防止モード: 30. S ́aenz, A., Calderon - Ramirez, S., Castro J., Mora, R., Siles, F. : 両側フィルタの検討 核染色を伴わないnf-kb経路における自動細胞セグメンテーションと追跡の改善。
0.85
In: VI Latin American Congress on Biomedical Engineering CLAIB 2014, Paran´a, Argentina 29, 30 & 31 October 2014. pp. In: VI Latin American Congress on Biomedical Engineering CLAIB 2014, Paran ́a, Argentina 29, 30 & 31 (英語). 2014年10月31日閲覧。 0.77
345– 348. Springer (2015) 345– 348. Springer (複数形 Springers) 0.77
31. Saul Calderon-Ramirez, Shengxiang Yang, Armaghan Moemeni, Simon ColreavyDonnelly, David A Elizondo, Luis Oala, Jorge Rodr´ıguez-Capit´an, Manuel Jim´enezNavarro, Ezequiel L´opez-Rubio, and Miguel A Molina-Cabello. 31. Saul Calderon-Ramirez, Shengxiang Yang, Armaghan Moemeni, Simon ColreavyDonnelly, David A Elizondo, Luis Oala, Jorge Rodr ́ıguez-Capit ́an, Manuel Jim ́enezNavarro, Ezequiel L ́opez-Rubio, Miguel A Molina-Cabello 0.83
Improving uncertainty estimation with semi-supervised deep learning for covid-19 detection using chest x-ray images. 胸部X線画像を用いた半教師付き深層学習による不確実性推定の改善 0.58
IEEE Access, 2021. IEEEアクセス、2021年。 0.85
32. Ariana Bermudez, Saul Calderon-Ramirez, Trevor Thang, Pascal Tyrrell, Armaghan Moemeni, Shengxiang Yang, and Jordina Torrents-Barrena. 32. Ariana Bermudez, Saul Calderon-Ramirez, Trevor Thang, Pascal Tyrrell, Armaghan Moemeni, Shengxiang Yang, Jordina Torrents-Barrena 0.84
A first glance 一見すると 0.49
英語(論文から抽出)日本語訳スコア
Image analysis by ensembles of convolutional neural networks 畳み込みニューラルネットワークのアンサンブルによる画像解析 0.79
11 to the quality assessment of dental photostimulable phosphor plates with deep learning. 11 深層学習による歯科用光刺激性蛍光体板の品質評価を行う。 0.77
In 2020 International Joint Conference on Neural Networks (IJCNN), pages 1–6. 2020年、IJCNN(International Joint Conference on Neural Networks)、1-6頁。 0.79
IEEE, 2020. IEEE、2020年。 0.90
33. Luis Oala, Jana Fehr, Luca Gilli, Pradeep Balachandran, Alixandro Werneck Leite, Saul Calderon-Ramirez, Danny Xie Li, Gabriel Nobis, Erick Alejandro Mu˜noz Alvarado, Giovanna Jaramillo-Gutierrez, et al Ml4h auditing: From paper to practice. 33. Luis Oala, Jana Fehr, Luca Gilli, Pradeep Balachandran, Alixandro Werneck Leite, Saul Calderon-Ramirez, Danny Xie Li, Gabriel Nobis, Erick Alejandro Mu 'noz Alvarado, Giovanna Jaramillo-Gutierrez, et al Ml4h auditing: 紙から紙まで。 0.91
In Machine Learning for Health, pages 280–317. 健康のための機械学習』280-317頁。 0.75
PMLR, 2020. PMLR、2020年。 0.88
                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。