論文の概要: HarDNet-MSEG: A Simple Encoder-Decoder Polyp Segmentation Neural Network
that Achieves over 0.9 Mean Dice and 86 FPS
- arxiv url: http://arxiv.org/abs/2101.07172v2
- Date: Wed, 20 Jan 2021 15:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 10:07:56.093597
- Title: HarDNet-MSEG: A Simple Encoder-Decoder Polyp Segmentation Neural Network
that Achieves over 0.9 Mean Dice and 86 FPS
- Title(参考訳): HarDNet-MSEG: 0.9平均深度と86FPSを達成した簡易エンコーダデコーダポリプセグメンテーションニューラルネットワーク
- Authors: Chien-Hsiang Huang, Hung-Yu Wu, and Youn-Long Lin
- Abstract要約: 本研究では,新しい畳み込みニューラルネットワークであるHarDNet-MSEGを提案する。
一般的な5つのデータセットの精度と推論速度の両方でSOTAを実現する。
- 参考スコア(独自算出の注目度): 1.8352113484137629
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose a new convolution neural network called HarDNet-MSEG for polyp
segmentation. It achieves SOTA in both accuracy and inference speed on five
popular datasets. For Kvasir-SEG, HarDNet-MSEG delivers 0.904 mean Dice running
at 86.7 FPS on a GeForce RTX 2080 Ti GPU. It consists of a backbone and a
decoder. The backbone is a low memory traffic CNN called HarDNet68, which has
been successfully applied to various CV tasks including image classification,
object detection, multi-object tracking and semantic segmentation, etc. The
decoder part is inspired by the Cascaded Partial Decoder, known for fast and
accurate salient object detection. We have evaluated HarDNet-MSEG using those
five popular datasets. The code and all experiment details are available at
Github. https://github.com/james128333/HarDNet-MSEG
- Abstract(参考訳): 本稿では,ポリプセグメンテーションのための新しい畳み込みニューラルネットワークHarDNet-MSEGを提案する。
一般的な5つのデータセットの精度と推論速度の両方でSOTAを実現する。
Kvasir-SEGでは、HarDNet-MSEGが0.904で、GeForce RTX 2080 Ti GPU上で86.7 FPSで動作する。
バックボーンとデコーダで構成される。
バックボーンは、HarDNet68と呼ばれる低メモリトラフィックCNNで、画像分類、オブジェクト検出、マルチオブジェクト追跡、セマンティックセグメンテーションなど、さまざまなCVタスクにうまく適用されている。
デコーダ部はカスケード部分デコーダにインスパイアされ、高速かつ正確な正当性検出で知られている。
この5つの一般的なデータセットを用いてHarDNet-MSEGを評価した。
コードと実験の詳細はgithubで公開されている。
https://github.com/james128333/HarDNet-MSEG
関連論文リスト
- Deep Gradient Learning for Efficient Camouflaged Object Detection [152.24312279220598]
本稿では、勾配カモフラーグ型物体検出(COD)のためのオブジェクト監視を利用する新しいディープフレームワークであるDGNetを紹介する。
シンプルだが効率的なフレームワークから恩恵を受け、DGNetは既存の最先端のCODモデルよりも大きなマージンで優れている。
また,提案したDGNetは,ポリプのセグメンテーション,欠陥検出,透過的なオブジェクトセグメンテーションタスクにおいて良好に機能することを示した。
論文 参考訳(メタデータ) (2022-05-25T15:25:18Z) - FenceNet: Fine-grained Footwork Recognition in Fencing [84.19619219240859]
FenceNetは、フェンシングにおけるきめ細かいフットワークテクニックの分類を自動化する新しいアーキテクチャである。
入力として2Dポーズデータを取り込み、スケルトンベースのアクション認識アプローチを使用してアクションを分類する。
10倍のクロスバリデーションで85.4%の精度を達成し、各フェンスをテストセットとして残す。
論文 参考訳(メタデータ) (2022-04-20T12:54:31Z) - ThresholdNet: Pruning Tool for Densely Connected Convolutional Networks [2.267411144256508]
メモリのしきい値電圧の原理に言及した新しいタイプのプルーニングツール「しきい値」を導入する。
この手法は、異なる深さのブロックを異なる方法で接続し、メモリ使用量を減らすために使用される。
実験によると、HarDNetはDenseNetの2倍の速さで、ThresholdNetはHarDNetよりも10%速く、エラー率は10%低い。
論文 参考訳(メタデータ) (2021-08-28T08:48:31Z) - Pixel Difference Networks for Efficient Edge Detection [71.03915957914532]
本稿では,Pixel Difference Network (PiDiNet) という軽量かつ効率的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueのデータセットに関する大規模な実験が、その効果を示すために提供されている。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2021-08-16T10:42:59Z) - Realtime CNN-based Keypoint Detector with Sobel Filter and CNN-based
Descriptor Trained with Keypoint Candidates [5.113043087195202]
本稿では,2つのCNN,軽量なSobelNetとDesNetを導入し,キーポイントを検出し,局所的な局所記述子を計算する。
SobelNetは、近年のSOTA法と比較して、少ない計算で、より良い、または同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-11-04T04:11:37Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。