論文の概要: DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation
- arxiv url: http://arxiv.org/abs/2004.13453v1
- Date: Tue, 28 Apr 2020 12:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 23:36:09.349282
- Title: DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation
- Title(参考訳): DRU-net: 医用画像分割のための効率的な深部畳み込みニューラルネットワーク
- Authors: Mina Jafari, Dorothee Auer, Susan Francis, Jonathan Garibaldi, Xin
Chen
- Abstract要約: 残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 2.3574651879602215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Residual network (ResNet) and densely connected network (DenseNet) have
significantly improved the training efficiency and performance of deep
convolutional neural networks (DCNNs) mainly for object classification tasks.
In this paper, we propose an efficient network architecture by considering
advantages of both networks. The proposed method is integrated into an
encoder-decoder DCNN model for medical image segmentation. Our method adds
additional skip connections compared to ResNet but uses significantly fewer
model parameters than DenseNet. We evaluate the proposed method on a public
dataset (ISIC 2018 grand-challenge) for skin lesion segmentation and a local
brain MRI dataset. In comparison with ResNet-based, DenseNet-based and
attention network (AttnNet) based methods within the same encoder-decoder
network structure, our method achieves significantly higher segmentation
accuracy with fewer number of model parameters than DenseNet and AttnNet. The
code is available on GitHub (GitHub link: https://github.com/MinaJf/DRU-net).
- Abstract(参考訳): 残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、主にオブジェクト分類タスクのためのディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
本稿では,両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
提案手法は,医療画像分割のためのエンコーダデコーダDCNNモデルに統合される。
我々の手法はResNetと比較してスキップ接続を追加するが、DenseNetよりもはるかに少ないモデルパラメータを使用する。
皮膚病変分類のためのパブリックデータセット(ISIC 2018 Grand-challenge)と局所脳MRIデータセットについて検討した。
同じエンコーダ-デコーダネットワーク構造内のResNetベース,DenseNetベース,注目ネットワーク(AttnNet)ベースの手法と比較して,本手法はDenseNetやAttnNetよりも少ないモデルパラメータでセグメント化精度を著しく向上させる。
コードはGitHubで公開されている(GitHubリンク: https://github.com/MinaJf/DRU-net)。
関連論文リスト
- SODAWideNet -- Salient Object Detection with an Attention augmented Wide
Encoder Decoder network without ImageNet pre-training [3.66237529322911]
我々は、ImageNet事前トレーニングなしで、Salient Object Detectionを直接訓練したスクラッチからニューラルネットワークを開発することを検討する。
本稿では,Salient Object Detection のためのエンコーダデコーダ型ネットワーク SODAWideNet を提案する。
SODAWideNet-S (3.03M) と SODAWideNet (9.03M) の2つの変種は、5つのデータセット上の最先端モデルと競合する性能を達成する。
論文 参考訳(メタデータ) (2023-11-08T16:53:44Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - Adder Neural Networks [75.54239599016535]
我々は、ディープニューラルネットワークにおける大規模な乗算を交換するために、加算器ネットワーク(AdderNets)を提案する。
AdderNetsでは、フィルタと入力特徴の間の$ell_p$-norm距離を出力応答として取ります。
提案したAdderNetsは,ImageNetデータセット上でResNet-50を用いて,75.7%のTop-1精度92.3%のTop-5精度を達成可能であることを示す。
論文 参考訳(メタデータ) (2021-05-29T04:02:51Z) - BCNet: Searching for Network Width with Bilaterally Coupled Network [56.14248440683152]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
提案手法は,他のベースライン手法と比較して,最先端あるいは競合的な性能を実現する。
論文 参考訳(メタデータ) (2021-05-21T18:54:03Z) - Densely Connected Recurrent Residual (Dense R2UNet) Convolutional Neural
Network for Segmentation of Lung CT Images [0.342658286826597]
本稿では,U-Netモデルアーキテクチャに基づくリカレントCNN,Residual Network,Dense Convolutional Networkの合成について述べる。
ベンチマークLung Lesionデータセットで検証したモデルでは、同等のモデルよりもセグメンテーションタスクのパフォーマンスが向上した。
論文 参考訳(メタデータ) (2021-02-01T06:34:10Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - FNA++: Fast Network Adaptation via Parameter Remapping and Architecture
Search [35.61441231491448]
本稿では,シードネットワークのアーキテクチャとパラメータの両方を適応できるFNA++法を提案する。
実験では、FNA++をMobileNetV2に適用し、セマンティックセグメンテーション、オブジェクト検出、人間のポーズ推定のための新しいネットワークを得る。
FNA++の総計算コストは、SOTAセグメンテーションやNASアプローチよりも大幅に少ない。
論文 参考訳(メタデータ) (2020-06-21T10:03:34Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z) - Fast Neural Network Adaptation via Parameter Remapping and Architecture
Search [35.61441231491448]
ディープニューラルネットワークは多くのコンピュータビジョンタスクにおいて顕著なパフォーマンスを達成する。
ほとんどの最新技術(SOTA)セマンティックセグメンテーションとオブジェクト検出アプローチは、バックボーンとしてイメージ分類用に設計されたニューラルネットワークアーキテクチャを再利用する。
しかし、大きな課題の1つは、画像Netによる検索空間表現の事前トレーニングが膨大な計算コストを発生させることである。
本稿では、シードネットワークのアーキテクチャとパラメータの両方を適応できる高速ニューラルネットワーク適応(FNA)手法を提案する。
論文 参考訳(メタデータ) (2020-01-08T13:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。