論文の概要: Accurate Tumor Tissue Region Detection with Accelerated Deep
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2004.08552v1
- Date: Sat, 18 Apr 2020 08:24:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 05:26:22.060990
- Title: Accurate Tumor Tissue Region Detection with Accelerated Deep
Convolutional Neural Networks
- Title(参考訳): 深層畳み込みニューラルネットワークによる腫瘍組織領域の高精度検出
- Authors: Gabriel Tjio, Xulei Yang, Jia Mei Hong, Sum Thai Wong, Vanessa Ding,
Andre Choo and Yi Su
- Abstract要約: がん診断のための手動の病理診断は、退屈で反復的である。
我々のアプローチであるFLASHは、ディープ畳み込みニューラルネットワーク(DCNN)アーキテクチャに基づいている。
計算コストを削減し、一般的なディープラーニングアプローチよりも2桁の速さで高速である。
- 参考スコア(独自算出の注目度): 12.7414209590152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manual annotation of pathology slides for cancer diagnosis is laborious and
repetitive. Therefore, much effort has been devoted to develop computer vision
solutions. Our approach, (FLASH), is based on a Deep Convolutional Neural
Network (DCNN) architecture. It reduces computational costs and is faster than
typical deep learning approaches by two orders of magnitude, making high
throughput processing a possibility. In computer vision approaches using deep
learning methods, the input image is subdivided into patches which are
separately passed through the neural network. Features extracted from these
patches are used by the classifier to annotate the corresponding region. Our
approach aggregates all the extracted features into a single matrix before
passing them to the classifier. Previously, the features are extracted from
overlapping patches. Aggregating the features eliminates the need for
processing overlapping patches, which reduces the computations required. DCCN
and FLASH demonstrate high sensitivity (~ 0.96), good precision (~0.78) and
high F1 scores (~0.84). The average time taken to process each sample for FLASH
and DCNN is 96.6 seconds and 9489.20 seconds, respectively. Our approach was
approximately 100 times faster than the original DCNN approach while
simultaneously preserving high accuracy and precision.
- Abstract(参考訳): がん診断のための手動の病理診断は、退屈で反復的である。
そのため、コンピュータビジョンソリューションの開発に多くの努力が注がれている。
私たちのアプローチ(flash)は、ディープ畳み込みニューラルネットワーク(dcnn)アーキテクチャに基づいています。
計算コストを削減し、一般的なディープラーニングアプローチよりも2桁の高速化を実現し、高いスループット処理が可能となる。
ディープラーニング手法を用いたコンピュータビジョンアプローチでは、入力画像はニューラルネットワークを介して別々に渡されるパッチに分割される。
これらのパッチから抽出された特徴は、対応する領域に注釈をつけるために分類器によって使用される。
我々のアプローチは、抽出した全ての特徴を分類器に渡す前に単一の行列に集約する。
以前は重複パッチから特徴を抽出していた。
機能を集約することで、重複するパッチの処理が不要になり、必要な計算量が削減される。
DCCNとFLASHは高い感度(約0.96)、良好な精度(約0.78)、高いF1スコア(約0.84)を示す。
FLASHとDCNNのサンプル処理にかかる平均時間は96.6秒と9489.20秒である。
提案手法は元のDCNN手法より約100倍高速であり,精度と精度を同時に維持できた。
関連論文リスト
- Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Deep Learning for Size and Microscope Feature Extraction and
Classification in Oral Cancer: Enhanced Convolution Neural Network [30.343802446139186]
オーバーフィッティング問題は、深層学習技術が口腔癌の画像分類でうまく実装されていない理由である。
提案システムは,オートエンコーダ技術を用いて特徴抽出プロセスの効率を向上する拡張畳み込みニューラルネットワークで構成されている。
論文 参考訳(メタデータ) (2022-08-06T08:26:45Z) - Deep Learning Neural Network for Lung Cancer Classification: Enhanced
Optimization Function [28.201018420730332]
本研究の目的は、畳み込みニューラルネットワークのプール層におけるマルチスペース画像を用いて、全体的な予測精度の向上と、処理時間を短縮することである。
提案手法は,畳み込みニューラルネットワークのプール層におけるマルチスペース画像を用いて,全体の精度を向上させるオートエンコーダシステムと肺がんの予測を行う。
論文 参考訳(メタデータ) (2022-08-05T18:41:17Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Deep Learning Framework for Real-time Fetal Brain Segmentation in MRI [15.530500862944818]
様々なディープニューラルネットワークモデルの高速化性能を解析する。
我々は、高解像度で空間の詳細と低解像度で抽出された文脈特徴を組み合わせた、象徴的な小さな畳み込みニューラルネットワークを考案した。
我々は、手動で胎児のMRIスライスをラベル付けした8つの最先端ネットワークと同様に、我々のモデルを訓練した。
論文 参考訳(メタデータ) (2022-05-02T20:43:14Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Random Convolution Kernels with Multi-Scale Decomposition for Preterm
EEG Inter-burst Detection [0.0]
ランダム畳み込みカーネルを持つ線形分類器は、設計やドメイン知識を必要としない計算効率の良い方法である。
最近提案されたRandOm Convolutional KErnel Transformsは、時系列データセットの範囲で高い精度を示している。
本稿では,高周波数成分と低周波数成分を併用したマルチスケールバージョンを提案する。
論文 参考訳(メタデータ) (2021-08-04T13:07:41Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Evolving Deep Convolutional Neural Network by Hybrid Sine-Cosine and
Extreme Learning Machine for Real-time COVID19 Diagnosis from X-Ray Images [0.5249805590164902]
ディープ・コンボリューショナル・ネットワーク(CNN)は、COVID-19陽性症例の診断に応用できるツールとみなすことができる。
本稿では,最後の完全接続層ではなく,ELM(Extreme Learning Machine)を用いることを提案する。
提案手法は、COVID-Xray-5kデータセットで98.83%の最終的な精度で比較ベンチマークを上回っている。
論文 参考訳(メタデータ) (2021-05-14T19:40:16Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。