論文の概要: RC-Net: A Convolutional Neural Network for Retinal Vessel Segmentation
- arxiv url: http://arxiv.org/abs/2112.11078v1
- Date: Tue, 21 Dec 2021 10:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 20:43:48.021130
- Title: RC-Net: A Convolutional Neural Network for Retinal Vessel Segmentation
- Title(参考訳): RC-Net:網膜血管セグメンテーションのための畳み込みニューラルネットワーク
- Authors: Tariq M Khan, Antonio Robles-Kelly, Syed S. Naqvi
- Abstract要約: 本稿では,機能重複と複雑性を低減するために,層ごとのフィルタ数を最適化した完全畳み込みネットワークRC-Netを提案する。
我々の実験では、RC-Netは非常に競争力があり、訓練可能なパラメータが2、3桁も少ない代替船のセグメンテーション手法よりも優れています。
- 参考スコア(独自算出の注目度): 3.0846824529023387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over recent years, increasingly complex approaches based on sophisticated
convolutional neural network architectures have been slowly pushing performance
on well-established benchmark datasets. In this paper, we take a step back to
examine the real need for such complexity. We present RC-Net, a fully
convolutional network, where the number of filters per layer is optimized to
reduce feature overlapping and complexity. We also used skip connections to
keep spatial information loss to a minimum by keeping the number of pooling
operations in the network to a minimum. Two publicly available retinal vessel
segmentation datasets were used in our experiments. In our experiments, RC-Net
is quite competitive, outperforming alternatives vessels segmentation methods
with two or even three orders of magnitude less trainable parameters.
- Abstract(参考訳): 近年、洗練された畳み込みニューラルネットワークアーキテクチャに基づく複雑なアプローチが、確立されたベンチマークデータセットのパフォーマンスを徐々に押し上げている。
本稿では,このような複雑性に対する真のニーズを検討するために,一歩後退する。
本稿では,機能重複と複雑性を低減するために,層ごとのフィルタ数を最適化した完全畳み込みネットワークRC-Netを提案する。
また,ネットワーク内のプール操作数を最小にすることで,空間情報損失を最小限に抑えるためにスキップ接続を用いた。
実験では2つの網膜血管セグメンテーションデータセットを用いた。
我々の実験では、RC-Netは非常に競争力があり、訓練可能なパラメータが2、3桁も少ない代替船のセグメンテーション手法よりも優れています。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - A Generalization of Continuous Relaxation in Structured Pruning [0.3277163122167434]
トレンドは、パラメータが増加するより深い、より大きなニューラルネットワークが、より小さなニューラルネットワークよりも高い精度を達成することを示している。
ネットワーク拡張, プルーニング, サブネットワーク崩壊, 削除のためのアルゴリズムを用いて, 構造化プルーニングを一般化する。
結果のCNNは計算コストのかかるスパース行列演算を使わずにGPUハードウェア上で効率的に実行される。
論文 参考訳(メタデータ) (2023-08-28T14:19:13Z) - RFC-Net: Learning High Resolution Global Features for Medical Image
Segmentation on a Computational Budget [4.712700480142554]
本稿では,圧縮された計算空間における高解像度グローバルな特徴を学習するReceptive Field Chain Network (RFC-Net)を提案する。
提案実験により,RFC-Net が Kvasir および CVC-ClinicDB のPolyp セグメンテーションのベンチマークにおいて,最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-02-13T06:52:47Z) - Towards Bi-directional Skip Connections in Encoder-Decoder Architectures
and Beyond [95.46272735589648]
本稿では,デコードされた機能をエンコーダに戻すための後方スキップ接続を提案する。
我々の設計は、任意のエンコーダ・デコーダアーキテクチャにおいて前方スキップ接続と共同で適用することができる。
本稿では,2相ニューラルネットワーク探索(NAS)アルゴリズム,すなわちBiX-NASを提案する。
論文 参考訳(メタデータ) (2022-03-11T01:38:52Z) - PDFNet: Pointwise Dense Flow Network for Urban-Scene Segmentation [0.0]
我々はポイントワイド高密度フローネットワーク(PDFNet)という新しい軽量アーキテクチャを提案する。
PDFNetでは、ネットワークのすべての部分へのスムーズな勾配流を可能にするために、密集、残留、複数ショートカット接続を使用します。
提案手法は,小規模なクラスや少数のデータレギュレーションにおいて,ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2021-09-21T10:39:46Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - Training and Inference for Integer-Based Semantic Segmentation Network [18.457074855823315]
セグメンテーションネットワークのトレーニングと推論のための新しい量子化フレームワークを提案する。
我々のフレームワークはFCN-VGG16やDeepLabv3-ResNet50のような主流セマンティックセマンティクスネットワークで評価されている。
論文 参考訳(メタデータ) (2020-11-30T02:07:07Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。