論文の概要: FRS-Nets: Fourier Parameterized Rotation and Scale Equivariant Networks
for Retinal Vessel Segmentation
- arxiv url: http://arxiv.org/abs/2309.15638v1
- Date: Wed, 27 Sep 2023 13:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 13:45:38.965739
- Title: FRS-Nets: Fourier Parameterized Rotation and Scale Equivariant Networks
for Retinal Vessel Segmentation
- Title(参考訳): FRS-Nets: 網膜血管セグメンテーションのためのフーリエパラメータ化回転とスケール同変ネットワーク
- Authors: Zihong Sun, Qi Xie and Deyu Meng
- Abstract要約: フーリエのパラメータ化と回転とスケーリングに等価な新しい畳み込み演算子 (FRS-Conv) を構築する。
対応するベースラインの13.9%のパラメータで、FRS-Netは最先端のパフォーマンスを達成した。
FRS-Netsの顕著な精度、一般化、臨床応用の可能性を示す。
- 参考スコア(独自算出の注目度): 55.4653338610275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With translation equivariance, convolution neural networks (CNNs) have
achieved great success in retinal vessel segmentation. However, some other
symmetries of the vascular morphology are not characterized by CNNs, such as
rotation and scale symmetries. To embed more equivariance into CNNs and achieve
the accuracy requirement for retinal vessel segmentation, we construct a novel
convolution operator (FRS-Conv), which is Fourier parameterized and equivariant
to rotation and scaling. Specifically, we first adopt a new parameterization
scheme, which enables convolutional filters to arbitrarily perform
transformations with high accuracy. Secondly, we derive the formulations for
the rotation and scale equivariant convolution mapping. Finally, we construct
FRS-Conv following the proposed formulations and replace the traditional
convolution filters in U-Net and Iter-Net with FRS-Conv (FRS-Nets). We
faithfully reproduce all compared methods and conduct comprehensive experiments
on three public datasets under both in-dataset and cross-dataset settings. With
merely 13.9% parameters of corresponding baselines, FRS-Nets have achieved
state-of-the-art performance and significantly outperform all compared methods.
It demonstrates the remarkable accuracy, generalization, and clinical
application potential of FRS-Nets.
- Abstract(参考訳): 翻訳等価性により、畳み込みニューラルネットワーク(CNN)は網膜血管セグメンテーションにおいて大きな成功を収めた。
しかし、血管形態の他の対称性は、回転やスケール対称性のようなcnnによって特徴づけられていない。
さらに,CNNに等価性を組み込み,網膜血管セグメンテーションの精度要求を実現するために,フーリエのパラメータ化と回転とスケーリングに等価な新しい畳み込み演算子 (FRS-Conv) を構築した。
具体的には、畳み込みフィルタを任意に高精度に変換できる新しいパラメータ化方式を最初に採用する。
第二に、回転とスケール同変の畳み込み写像の定式化を導出する。
最後に、提案した定式化に従ってFRS-Convを構築し、U-NetとIter-Netの従来の畳み込みフィルタをFRS-Conv(FRS-Nets)に置き換える。
比較した手法をすべて忠実に再現し,データセット内およびデータセット横断設定の3つの公開データセットについて包括的な実験を行う。
対応するベースラインのパラメータが13.9%に過ぎず、FRS-Netは最先端のパフォーマンスを達成し、比較したすべてのメソッドを著しく上回っている。
FRS-Netsの顕著な精度、一般化、臨床応用の可能性を示す。
関連論文リスト
- Sorted Convolutional Network for Achieving Continuous Rotational
Invariance [56.42518353373004]
テクスチャ画像のハンドメイドな特徴に着想を得たSorting Convolution (SC)を提案する。
SCは、追加の学習可能なパラメータやデータ拡張を必要とせずに連続的な回転不変性を達成する。
以上の結果から, SCは, 上記の課題において, 最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-23T18:37:07Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - An end-to-end SE(3)-equivariant segmentation network [2.735801286587347]
球面調和に基づく同変ボクセル畳み込みを用いたセグメンテーションネットワークを新たに提案する。
MRI脳腫瘍におけるセグメンテーション性能と健常な脳構造セグメンテーション課題について検討した。
論文 参考訳(メタデータ) (2023-03-01T09:27:08Z) - Empowering Networks With Scale and Rotation Equivariance Using A
Similarity Convolution [16.853711292804476]
翻訳, 回転, スケーリングに関して, 同時同値のCNNを実現する手法を考案する。
提案手法は畳み込みのような動作を定義し,提案したスケーラブルなフーリエ・アーガン表現に基づいて等価性を保証する。
画像分類作業におけるアプローチの有効性を検証し、その頑健さと、スケールされた入力と回転した入力の両方に対する一般化能力を示す。
論文 参考訳(メタデータ) (2023-03-01T08:43:05Z) - How can spherical CNNs benefit ML-based diffusion MRI parameter
estimation? [2.4417196796959906]
球状畳み込みニューラルネットワーク(S-CNN)は、従来の完全連結ネットワーク(FCN)に対して明確な優位性を提供する
拡散強調画像(DWI)のみからなるdMRIデータを取得する現況
論文 参考訳(メタデータ) (2022-07-01T17:49:26Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。