論文の概要: DPN: Detail-Preserving Network with High Resolution Representation for
Efficient Segmentation of Retinal Vessels
- arxiv url: http://arxiv.org/abs/2009.12053v2
- Date: Sun, 29 Aug 2021 13:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 23:16:07.077448
- Title: DPN: Detail-Preserving Network with High Resolution Representation for
Efficient Segmentation of Retinal Vessels
- Title(参考訳): DPN:網膜血管の高分解能セグメンテーションのための詳細保存ネットワーク
- Authors: Song Guo
- Abstract要約: 網膜血管は多くの眼科および心臓血管疾患にとって重要なバイオマーカーである。
U-Netのような既存の手法はエンコーダ・デコーダ・パイプラインに従っており、そこでは広い視野を達成するためにエンコーダに詳細な情報が失われる。
本稿では,エンコーダ/デコーダパイプラインを回避するディテール保存ネットワーク(DPN)を提案する。
- 参考スコア(独自算出の注目度): 10.559918590287875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retinal vessels are important biomarkers for many ophthalmological and
cardiovascular diseases. Hence, it is of great significance to develop
automatic models for computer-aided diagnosis. Existing methods, such as U-Net
follow the encoder-decoder pipeline, where detailed information is lost in the
encoder in order to achieve a large field of view. Although spatial detailed
information could be recovered partly in the decoder, while there is noise in
the high-resolution feature maps of the encoder. And, we argue this
encoder-decoder architecture is inefficient for vessel segmentation. In this
paper, we present the detail-preserving network (DPN), which avoids the
encoder-decoder pipeline. To preserve detailed information and learn structural
information simultaneously, we designed the detail-preserving block (DP-Block).
Further, we stacked eight DP-Blocks together to form the DPN. More importantly,
there are no down-sampling operations among these blocks. Therefore, the DPN
could maintain a high/full resolution during processing, avoiding the loss of
detailed information. To illustrate the effectiveness of DPN, we conducted
experiments over three public datasets. Experimental results show, compared to
state-of-the-art methods, DPN shows competitive/better performance in terms of
segmentation accuracy, segmentation speed, and model size. Specifically, 1) Our
method achieves comparable segmentation performance on the DRIVE, CHASE_DB1,
and HRF datasets. 2) The segmentation speed of DPN is over 20-160 times faster
than other methods on the DRIVE dataset. 3) The number of parameters of DPN is1
around 120k, far less than all comparison methods.
- Abstract(参考訳): 網膜血管は多くの眼科および心臓血管疾患にとって重要なバイオマーカーである。
したがって、コンピュータ支援診断のための自動モデルを開発することは極めて重要である。
U-Netのような既存の手法はエンコーダ・デコーダパイプラインに従っており、エンコーダの視野を大きくするために詳細な情報が失われる。
空間的詳細情報は部分的にデコーダで復元できるが、エンコーダの高解像度特徴マップにはノイズが存在する。
そして,このエンコーダ・デコーダアーキテクチャは容器分割に非効率であると主張する。
本稿では,エンコーダ/デコーダパイプラインを回避するディテール保存ネットワーク(DPN)を提案する。
詳細情報を同時に保存し,構造情報を学習するために,詳細保存ブロック(DP-Block)を設計した。
さらに8つのDP-Blockを積み重ねてDPNを形成した。
さらに重要なのは、これらのブロックにはダウンサンプリング操作がないことだ。
そのため、DPNは処理中に詳細な情報を失うのを回避し、高精細な解像度を維持することができた。
DPNの有効性を説明するために,3つの公開データセットを用いた実験を行った。
実験の結果, 最先端手法と比較して, dpnはセグメント化精度, セグメンテーション速度, モデルサイズにおいて, 競争力とベター性能を示した。
具体的には
1)本手法は,DRIVE,CHASE_DB1,HRFデータセットにおいて,同等のセグメンテーション性能を実現する。
2)DPNのセグメンテーション速度はDRIVEデータセットの他の手法よりも20~160倍高速である。
3) DPNのパラメータの数は約120kであり, 比較法よりもはるかに少ない。
関連論文リスト
- ParaTransCNN: Parallelized TransCNN Encoder for Medical Image
Segmentation [7.955518153976858]
本稿では,畳み込みニューラルネットワークとトランスフォーマーアーキテクチャを組み合わせた2次元特徴抽出手法を提案する。
特に小臓器では, セグメンテーションの精度が向上した。
論文 参考訳(メタデータ) (2024-01-27T05:58:36Z) - Narrowing the semantic gaps in U-Net with learnable skip connections:
The case of medical image segmentation [12.812992773512871]
U-Netにおける3つのセグメンテーションギャップを解決するためにUDTransNetという新しいセグメンテーションフレームワークを提案する。
具体的には、チャネル関係と空間関係を捕捉するデュアルアテンショントランスフォーマー(DAT)モジュールと、DATトークンとデコーダ機能を効果的に接続するデコーダ誘導リカバリアアテンション(DRA)モジュールを提案する。
我々のUDTransNetは、異なる公開データセット上の最先端セグメンテーション手法よりも比較的少ないパラメータで、より高い評価スコアとより細かいセグメンテーション結果を生成する。
論文 参考訳(メタデータ) (2023-12-23T07:39:42Z) - Triple-View Knowledge Distillation for Semi-Supervised Semantic
Segmentation [54.23510028456082]
半教師付きセマンティックセグメンテーションのためのトリプルビュー知識蒸留フレームワークTriKDを提案する。
このフレームワークは、トリプルビューエンコーダとデュアル周波数デコーダを含む。
論文 参考訳(メタデータ) (2023-09-22T01:02:21Z) - Spatial-information Guided Adaptive Context-aware Network for Efficient
RGB-D Semantic Segmentation [9.198120596225968]
計算パラメータを削減し,アルゴリズムの堅牢性を保証する,効率的な軽量エンコーダデコーダネットワークを提案する。
また,NYUv2,SUN RGB-D,Cityscapesのデータセットを用いた実験結果から,本手法は最先端手法よりもセグメンテーション精度,推定時間,パラメータのトレードオフが良好であることが示された。
論文 参考訳(メタデータ) (2023-08-11T09:02:03Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - TRACER: Extreme Attention Guided Salient Object Tracing Network [3.2434811678562676]
本稿では,注意誘導型トレーシングモジュールを組み込んで,鮮明なエッジで有意な物体を検出するTRACERを提案する。
13の既存手法との比較により、TRACERは5つのベンチマークデータセットで最先端のパフォーマンスを達成することが明らかになった。
論文 参考訳(メタデータ) (2021-12-14T13:20:07Z) - Small Lesion Segmentation in Brain MRIs with Subpixel Embedding [105.1223735549524]
ヒト脳のMRIスキャンを虚血性脳梗塞と正常組織に分割する方法を提案する。
本稿では,空間展開埋め込みネットワークによって予測を導出する標準エンコーダデコーダの形式でニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-18T00:21:17Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - Extremely Dense Point Correspondences using a Learned Feature Descriptor [24.59943074297299]
内視鏡画像からの高品質な3D再構成は、手術ナビゲーションを含む多くの臨床応用において重要な役割を担っている。
一般的なマルチビュー3D再構成には多くの方法が存在するが、これらの手法は内視鏡的映像に満足な性能を発揮できないことが多い。
本稿では,高密度記述子学習のための効果的な自己指導型学習手法と新規損失設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T00:44:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。