論文の概要: FU-net: Multi-class Image Segmentation Using Feedback Weighted U-net
- arxiv url: http://arxiv.org/abs/2004.13470v1
- Date: Tue, 28 Apr 2020 13:08:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 23:35:51.410602
- Title: FU-net: Multi-class Image Segmentation Using Feedback Weighted U-net
- Title(参考訳): FU-net:フィードバック重み付きU-netを用いたマルチクラス画像分割
- Authors: Mina Jafari, Ruizhe Li, Yue Xing, Dorothee Auer, Susan Francis,
Jonathan Garibaldi, and Xin Chen
- Abstract要約: マルチクラス画像分割のための汎用ディープ畳み込みニューラルネットワーク(DCNN)を提案する。
U-netとして知られる、よく確立された教師付きエンドツーエンドDCNNモデルに基づいている。
- 参考スコア(独自算出の注目度): 5.193724835939252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a generic deep convolutional neural network (DCNN)
for multi-class image segmentation. It is based on a well-established
supervised end-to-end DCNN model, known as U-net. U-net is firstly modified by
adding widely used batch normalization and residual block (named as BRU-net) to
improve the efficiency of model training. Based on BRU-net, we further
introduce a dynamically weighted cross-entropy loss function. The weighting
scheme is calculated based on the pixel-wise prediction accuracy during the
training process. Assigning higher weights to pixels with lower segmentation
accuracies enables the network to learn more from poorly predicted image
regions. Our method is named as feedback weighted U-net (FU-net). We have
evaluated our method based on T1- weighted brain MRI for the segmentation of
midbrain and substantia nigra, where the number of pixels in each class is
extremely unbalanced to each other. Based on the dice coefficient measurement,
our proposed FU-net has outperformed BRU-net and U-net with statistical
significance, especially when only a small number of training examples are
available. The code is publicly available in GitHub (GitHub link:
https://github.com/MinaJf/FU-net).
- Abstract(参考訳): 本稿では,多クラス画像分割のための汎用的深層畳み込みニューラルネットワーク(dcnn)を提案する。
U-netとして知られる、よく確立された教師付きエンドツーエンドDCNNモデルに基づいている。
U-netは、モデルトレーニングの効率を改善するために広く使われているバッチ正規化と残留ブロック(BRU-net)を追加することで、最初に修正される。
さらに,BRU-netに基づいて動的重み付きクロスエントロピー損失関数を導入する。
トレーニング中の画素予測精度に基づいて重み付けスキームを算出する。
分割精度の低いピクセルに高い重みを割り当てることで、ネットワークは予測できない画像領域からより多くのことを学べる。
本手法はフィードバック重み付きU-net (FU-net) と呼ぶ。
本手法はt1重み付き脳mriを用いて中脳と下脳のセグメンテーションを行い,各クラス内の画素数が互いに非常に不均衡であることを示す。
dice係数の測定に基づいて,提案するfu-netは統計的に有意なbru-netとu-netを上回っている。
コードはGitHubで公開されている(GitHubリンク: https://github.com/MinaJf/FU-net)。
関連論文リスト
- Efficient Training with Denoised Neural Weights [65.14892033932895]
この研究は、初期化のために神経重みを合成するウェイトジェネレータを構築するための新しい一歩を踏み出した。
本稿では,モデル重みの収集を容易にするために,GANを用いた画像間翻訳タスクを例に挙げる。
拡散モデルによって予測される重み付き画像翻訳モデルを初期化することにより、トレーニングは43.3秒しか必要としない。
論文 参考訳(メタデータ) (2024-07-16T17:59:42Z) - Random Weights Networks Work as Loss Prior Constraint for Image
Restoration [50.80507007507757]
「画像復元の優先制約としてランダムウェイトネットワークを機能させることができる」という信念を提示する。」
我々の信念は、計算コストのトレーニングやテストなしに、既存のネットワークに直接挿入することができる。
強調しておきたいのは、損失関数の領域を刺激し、現在無視されている状態を保存することです。
論文 参考訳(メタデータ) (2023-03-29T03:43:51Z) - Co-training $2^L$ Submodels for Visual Recognition [67.02999567435626]
サブモデルコトレーニングは、コトレーニング、自己蒸留、深さに関連する正規化手法である。
サブモデルのコトレーニングは,画像分類やセマンティックセグメンテーションなどの認識タスクのためのバックボーンのトレーニングに有効であることを示す。
論文 参考訳(メタデータ) (2022-12-09T14:38:09Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Point-Cloud Deep Learning of Porous Media for Permeability Prediction [0.0]
デジタル画像から多孔質媒体の透過性を予測するための新しいディープラーニングフレームワークを提案する。
我々は、固体行列と細孔空間の境界を点雲としてモデル化し、それらをポイントネットアーキテクチャに基づくニューラルネットワークへの入力として供給する。
論文 参考訳(メタデータ) (2021-07-18T22:59:21Z) - ReCU: Reviving the Dead Weights in Binary Neural Networks [153.6789340484509]
我々は,BNNのトレーニング中にほとんど更新されない重みのグループを指す「死重み」の影響について検討する。
ReCUによる「死重み」の復活は、量子化誤差が小さくなることを示す。
提案手法は,高速なBNNトレーニングだけでなく,CIFAR-10およびImageNet上での最先端のパフォーマンスも提供する。
論文 参考訳(メタデータ) (2021-03-23T08:11:20Z) - Convolution-Free Medical Image Segmentation using Transformers [8.130670465411239]
近接する画像パッチ間の自己注意に基づく別の手法が,競争的あるいはよりよい結果が得られることを示す。
提案モデルにより,3つのデータセット上でのCNNの状態よりも優れたセグメンテーション精度が得られることを示す。
論文 参考訳(メタデータ) (2021-02-26T18:49:13Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Increasing the Robustness of Semantic Segmentation Models with
Painting-by-Numbers [39.95214171175713]
我々は,物体の形状に対するネットワークバイアスを増大させることにより,出力を改善することができる画像分類からの洞察に基づいて構築する。
我々の基本的な考え方は、RGBトレーニング画像の一部を偽画像でアルファブレンドすることであり、各クラスラベルには、固定されたランダムに選択された色が与えられる。
各種ネットワークバックボーン,MobileNet-V2,ResNets,Xceptionを用いたDeepLabv3+のトレーニングスキーマの有効性を実証し,Cityscapesデータセットで評価した。
論文 参考訳(メタデータ) (2020-10-12T07:42:39Z) - Rethinking CNN Models for Audio Classification [20.182928938110923]
ImageNet-Pretrained標準CNNモデルは、音声分類のための強力なベースラインネットワークとして使用できる。
事前学習した重量のどれがスペクトログラムの学習に役立つかを系統的に研究する。
事前訓練した重みを用いた標準モデルでは、ランダムなデンス重みを使用するよりもよいことを示す。
論文 参考訳(メタデータ) (2020-07-22T01:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。