論文の概要: An Accurate and Efficient Neural Network for OCTA Vessel Segmentation
and a New Dataset
- arxiv url: http://arxiv.org/abs/2309.09483v1
- Date: Mon, 18 Sep 2023 04:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 15:00:17.580620
- Title: An Accurate and Efficient Neural Network for OCTA Vessel Segmentation
and a New Dataset
- Title(参考訳): OCTA船体セグメンテーションのための高精度かつ効率的なニューラルネットワークと新しいデータセット
- Authors: Haojian Ning, Chengliang Wang, Xinrun Chen and Shiying Li
- Abstract要約: OCTA画像における網膜血管セグメンテーションのための高精度かつ効率的なニューラルネットワークを提案する。
提案するネットワークは,パラメータが少なく,推論速度も速く,他のSOTA手法に匹敵する精度を実現している。
918個のOCTA画像とそれに対応する血管アノテーションを含む新しいデータセットを作成する。
- 参考スコア(独自算出の注目度): 2.8743451550676866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical coherence tomography angiography (OCTA) is a noninvasive imaging
technique that can reveal high-resolution retinal vessels. In this work, we
propose an accurate and efficient neural network for retinal vessel
segmentation in OCTA images. The proposed network achieves accuracy comparable
to other SOTA methods, while having fewer parameters and faster inference speed
(e.g. 110x lighter and 1.3x faster than U-Net), which is very friendly for
industrial applications. This is achieved by applying the modified Recurrent
ConvNeXt Block to a full resolution convolutional network. In addition, we
create a new dataset containing 918 OCTA images and their corresponding vessel
annotations. The data set is semi-automatically annotated with the help of
Segment Anything Model (SAM), which greatly improves the annotation speed. For
the benefit of the community, our code and dataset can be obtained from
https://github.com/nhjydywd/OCTA-FRNet.
- Abstract(参考訳): 光コヒーレンス断層撮影血管造影(OCTA)は、高分解能網膜血管を呈する非侵襲的イメージング技術である。
本研究では,OCTA画像における網膜血管分割のための高精度かつ効率的なニューラルネットワークを提案する。
提案されたネットワークは、他の sota 手法に匹敵する精度を実現し、より少ないパラメータとより高速な推論速度(例えば、u-net よりも 110 倍軽量で 1.3 倍高速)を持つ。
これは修正されたRecurrent ConvNeXt Blockをフル解像度畳み込みネットワークに適用することで実現される。
さらに,918オクターク画像とその対応するコンテナアノテーションを含む新しいデータセットを作成する。
データセットはSegment Anything Model (SAM) の助けを借りて半自動で注釈付けされ、アノテーションの速度を大幅に改善する。
コミュニティの利益のために、コードとデータセットはhttps://github.com/nhjydywd/OCTA-FRNetから取得できます。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - LiteNeXt: A Novel Lightweight ConvMixer-based Model with Self-embedding Representation Parallel for Medical Image Segmentation [2.0901574458380403]
医用画像分割のための軽量だが効率的な新しいモデル LiteNeXt を提案する。
LiteNeXtは、少量のパラメータ (0.71M) とギガ浮動小数点演算 (0.42) でスクラッチから訓練されている。
論文 参考訳(メタデータ) (2024-04-04T01:59:19Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - Learning Hybrid Representations for Automatic 3D Vessel Centerline
Extraction [57.74609918453932]
3次元医用画像からの血管の自動抽出は血管疾患の診断に不可欠である。
既存の方法では、3次元画像からそのような細い管状構造を分割する際に、抽出された容器の不連続に悩まされることがある。
抽出された船舶の連続性を維持するためには、地球的幾何学を考慮に入れる必要があると論じる。
この課題を解決するためのハイブリッド表現学習手法を提案します。
論文 参考訳(メタデータ) (2020-12-14T05:22:49Z) - The Unreasonable Effectiveness of Encoder-Decoder Networks for Retinal
Vessel Segmentation [3.351714665243138]
網膜画像における血管のセグメンテーションのためのエンコーダデコーダフレームワークを提案する。
3つの基礎画像データセットの実験は、このアプローチが最先端の結果を達成することを実証している。
VLightと呼ばれるこのフレームワークは、特定のトレーニングイメージへの過度な適合を回避し、さまざまなデータセットをまたがって適切に一般化されていることを示す。
論文 参考訳(メタデータ) (2020-11-25T11:10:37Z) - Glance and Focus: a Dynamic Approach to Reducing Spatial Redundancy in
Image Classification [46.885260723836865]
ディープ畳み込みニューラルネットワーク (Deep Convolutional Neural Network, CNN) は、高解像度画像で処理することで一般的に改善される。
画像中のすべての領域がタスク関連であるとは限らないという事実に着想を得て,効率的な画像分類を行う新しいフレームワークを提案する。
我々のフレームワークは、最先端の軽量CNNの多くと互換性があり、汎用的で柔軟です。
論文 参考訳(メタデータ) (2020-10-11T17:55:06Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。