論文の概要: Sparse Coding Driven Deep Decision Tree Ensembles for Nuclear
Segmentation in Digital Pathology Images
- arxiv url: http://arxiv.org/abs/2008.05657v1
- Date: Thu, 13 Aug 2020 02:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:15:32.966474
- Title: Sparse Coding Driven Deep Decision Tree Ensembles for Nuclear
Segmentation in Digital Pathology Images
- Title(参考訳): デジタル病理画像における核分割のためのスパース符号化駆動深度決定木アンサンブル
- Authors: Jie Song, Liang Xiao, Mohsen Molaei, and Zhichao Lian
- Abstract要約: デジタル病理画像セグメンテーションタスクにおいて、ディープニューラルネットワークと高い競争力を持つ、容易に訓練されながら強力な表現学習手法を提案する。
ScD2TEと略すこの手法はスパースコーディング駆動の深層決定木アンサンブルと呼ばれ、表現学習の新しい視点を提供する。
- 参考スコア(独自算出の注目度): 15.236873250912062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an easily trained yet powerful representation
learning approach with performance highly competitive to deep neural networks
in a digital pathology image segmentation task. The method, called sparse
coding driven deep decision tree ensembles that we abbreviate as ScD2TE,
provides a new perspective on representation learning. We explore the
possibility of stacking several layers based on non-differentiable pairwise
modules and generate a densely concatenated architecture holding the
characteristics of feature map reuse and end-to-end dense learning. Under this
architecture, fast convolutional sparse coding is used to extract multi-level
features from the output of each layer. In this way, rich image appearance
models together with more contextual information are integrated by learning a
series of decision tree ensembles. The appearance and the high-level context
features of all the previous layers are seamlessly combined by concatenating
them to feed-forward as input, which in turn makes the outputs of subsequent
layers more accurate and the whole model efficient to train. Compared with deep
neural networks, our proposed ScD2TE does not require back-propagation
computation and depends on less hyper-parameters. ScD2TE is able to achieve a
fast end-to-end pixel-wise training in a layer-wise manner. We demonstrated the
superiority of our segmentation technique by evaluating it on the multi-disease
state and multi-organ dataset where consistently higher performances were
obtained for comparison against several state-of-the-art deep learning methods
such as convolutional neural networks (CNN), fully convolutional networks
(FCN), etc.
- Abstract(参考訳): 本稿では,デジタル病理画像セグメンテーションタスクにおいて,ディープニューラルネットワークに匹敵するパフォーマンスを持つ,訓練が容易かつ強力な表現学習手法を提案する。
ScD2TEと略すこの手法はスパースコーディング駆動の深層決定木アンサンブルと呼ばれ、表現学習の新しい視点を提供する。
非微分可能なペアワイズモジュールに基づいて複数のレイヤを積み重ねる可能性を検討し、機能マップの再利用とエンドツーエンドの高密度学習の特徴を持つ密結合アーキテクチャを生成する。
このアーキテクチャでは、各層の出力から複数レベルの特徴を抽出するために高速畳み込みスパース符号化を用いる。
このように、一連の決定木アンサンブルを学習することにより、リッチな画像出現モデルとよりコンテキスト情報とが統合される。
前のレイヤの外観と高レベルのコンテキスト特徴は、それらを入力としてフィードフォワードに結合することでシームレスに結合され、その後のレイヤの出力がより正確になり、モデル全体のトレーニングが効率的になる。
深層ニューラルネットワークと比較して,提案するscd2teはバックプロパゲーション計算を必要としない。
ScD2TEは、エンド・ツー・エンドのピクセル・ワイド・トレーニングを階層的に高速に行うことができる。
我々は, 畳み込みニューラルネットワーク(CNN)や完全畳み込みネットワーク(FCN)など, 最先端の深層学習手法との比較において, 連続的に高い性能が得られるマルチディスリーズ状態とマルチオーガナイズデータセットを用いて, セグメンテーション手法の優位性を実証した。
関連論文リスト
- Informed deep hierarchical classification: a non-standard analysis inspired approach [0.0]
出力層の前に配置された特定のプロジェクション演算子を備えた多出力ディープニューラルネットワークで構成されている。
このようなアーキテクチャの設計は、LH-DNN(Lexicographic Hybrid Deep Neural Network)と呼ばれ、異なる研究分野と非常に離れた研究分野のツールを組み合わせることで実現されている。
アプローチの有効性を評価するために、階層的な分類タスクに適した畳み込みニューラルネットワークであるB-CNNと比較する。
論文 参考訳(メタデータ) (2024-09-25T14:12:50Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Semantic Labeling of High Resolution Images Using EfficientUNets and
Transformers [5.177947445379688]
畳み込みニューラルネットワークとディープトランスを組み合わせた新しいセグメンテーションモデルを提案する。
提案手法は,最先端技術と比較してセグメント化精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-20T12:03:54Z) - Multi-scale Matching Networks for Semantic Correspondence [38.904735120815346]
提案手法は,高い計算効率を有する3つの一般的なベンチマークに対して,最先端の性能を実現する。
我々のマルチスケールマッチングネットワークは、学習可能なパラメータをほとんど必要とせずに、エンドツーエンドで簡単に訓練できる。
論文 参考訳(メタデータ) (2021-07-31T10:57:24Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - HistoTransfer: Understanding Transfer Learning for Histopathology [9.231495418218813]
我々は、ImageNetと病理組織データに基づいてトレーニングされたネットワークから抽出された特徴の性能を比較した。
より複雑なネットワークを用いて学習した機能が性能向上につながるかどうかを検討する。
論文 参考訳(メタデータ) (2021-06-13T18:55:23Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。