論文の概要: 3D Segmentation with Fully Trainable Gabor Kernels and Pearson's
Correlation Coefficient
- arxiv url: http://arxiv.org/abs/2201.03644v1
- Date: Mon, 10 Jan 2022 20:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 14:41:54.437485
- Title: 3D Segmentation with Fully Trainable Gabor Kernels and Pearson's
Correlation Coefficient
- Title(参考訳): 完全学習型ガバーカーネルを用いた3次元セグメンテーションとピアソン相関係数
- Authors: Ken C. L. Wong, Mehdi Moradi
- Abstract要約: 本稿では,すべてのGaborパラメータがバックプロパゲーションによってトレーニング可能な,完全にトレーニング可能な畳み込み層を提案する。
43個の3次元脳磁気共鳴画像と19個の解剖学的構造を用いた実験により,提案した損失関数と従来とガボルのカーネルの適切な組み合わせを用いて,約1.6万パラメータのネットワークをトレーニングし,平均Dice係数83%を達成できることが判明した。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The convolutional layer and loss function are two fundamental components in
deep learning. Because of the success of conventional deep learning kernels,
the less versatile Gabor kernels become less popular despite the fact that they
can provide abundant features at different frequencies, orientations, and
scales with much fewer parameters. For existing loss functions for multi-class
image segmentation, there is usually a tradeoff among accuracy, robustness to
hyperparameters, and manual weight selections for combining different losses.
Therefore, to gain the benefits of using Gabor kernels while keeping the
advantage of automatic feature generation in deep learning, we propose a fully
trainable Gabor-based convolutional layer where all Gabor parameters are
trainable through backpropagation. Furthermore, we propose a loss function
based on the Pearson's correlation coefficient, which is accurate, robust to
learning rates, and does not require manual weight selections. Experiments on
43 3D brain magnetic resonance images with 19 anatomical structures show that,
using the proposed loss function with a proper combination of conventional and
Gabor-based kernels, we can train a network with only 1.6 million parameters to
achieve an average Dice coefficient of 83%. This size is 44 times smaller than
the V-Net which has 71 million parameters. This paper demonstrates the
potentials of using learnable parametric kernels in deep learning for 3D
segmentation.
- Abstract(参考訳): 畳み込み層と損失関数は、ディープラーニングの2つの基本的な構成要素である。
従来のディープラーニングカーネルの成功により、さまざまな周波数、向き、およびパラメータの少ないスケールで豊富な機能を提供できるにもかかわらず、汎用性の低いgaborカーネルは人気が低くなる。
多クラス画像セグメンテーションのための既存の損失関数には、通常、精度、ハイパーパラメータに対する堅牢性、異なる損失を組み合わせた手動の重量選択のトレードオフがある。
したがって、ディープラーニングにおける自動機能生成の利点を保ちつつ、gaborカーネルを使用することの利点を得るため、すべてのgaborパラメータがバックプロパゲーションを通じてトレーニング可能な、完全にトレーニング可能なgaborベースの畳み込み層を提案する。
さらに,pearson相関係数に基づく損失関数を提案する。これは精度が高く,学習率に頑健であり,手作業による重量選択を必要としない。
43個の3次元脳磁気共鳴画像と19個の解剖学的構造を用いた実験により,提案した損失関数と従来とガボルのカーネルの適切な組み合わせを用いて,約1.6万パラメータのネットワークをトレーニングし,平均Dice係数83%を達成できることがわかった。
このサイズは、7100万のパラメータを持つV-Netの44倍小さい。
本稿では,学習可能なパラメトリックカーネルを用いたディープラーニングによる3次元セグメンテーションの可能性を示す。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Filter Pruning For CNN With Enhanced Linear Representation Redundancy [3.853146967741941]
本稿では,CCM-loss という同一層内の異なる特徴写像の相関行列から計算したデータ駆動損失関数の項を示す。
CCM-lossは、L*-ノルム正規化以外に、別の普遍的超越数学的ツールを提供する。
新しい戦略では、主にネットワーク内の情報フローの整合性と整合性に注目します。
論文 参考訳(メタデータ) (2023-10-10T06:27:30Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Nonparametric Classification on Low Dimensional Manifolds using
Overparameterized Convolutional Residual Networks [82.03459331544737]
非パラメトリック分類の観点から重量減衰を訓練したConvResNeXtsの性能について検討した。
我々の分析は、ConvResNeXtsにおいて無限に多くのビルディングブロックを許容し、重み減衰がこれらのブロックに空間性を暗黙的に強制することを示す。
論文 参考訳(メタデータ) (2023-07-04T11:08:03Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Scaling Up 3D Kernels with Bayesian Frequency Re-parameterization for
Medical Image Segmentation [25.62587471067468]
RepUX-Netは、単純な大きなカーネルブロック設計を持つ純粋なCNNアーキテクチャである。
人間の視覚系における空間周波数にインスパイアされ、カーネル収束を要素的設定に変化させるよう拡張する。
論文 参考訳(メタデータ) (2023-03-10T08:38:34Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Model Pruning Based on Quantified Similarity of Feature Maps [5.271060872578571]
3次元テンソルに冗長な情報を見つけるための新しい理論を提案する。
この理論を畳み込みニューラルネットワークを駆使して推論速度を向上させる。
論文 参考訳(メタデータ) (2021-05-13T02:57:30Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Neural Kernels Without Tangents [34.527798084824575]
特徴の袋から「合成」カーネルを作成するための代数学について述べる。
これらの操作は, ニューラルタンジェントカーネル (NTK) の構成要素の多くに対応していることを示す。
論文 参考訳(メタデータ) (2020-03-04T18:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。