論文の概要: PL-Net: Progressive Learning Network for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2110.14484v1
- Date: Wed, 27 Oct 2021 14:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:55:37.965844
- Title: PL-Net: Progressive Learning Network for Medical Image Segmentation
- Title(参考訳): pl-net:医療画像分割のためのプログレッシブ学習ネットワーク
- Authors: Junlong Cheng, Chengrui Gao, Chaoqing Wang, Zhangqiang Ming, Yong
Yang, Min Zhu
- Abstract要約: プログレッシブラーニングネットワーク(PL-Net)という医用画像分割フレームワークを提案する。
PL-Netは、内部進行学習(IPL)と外部進行学習(EPL)を含む。
その結果, PL-Netのセグメンテーション性能は, U-Netの最先端手法とその変種よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 3.35994168681018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, segmentation methods based on deep convolutional neural
networks (CNNs) have made state-of-the-art achievements for many medical
analysis tasks. However, most of these approaches improve performance by
optimizing the structure or adding new functional modules of the U-Net, which
ignoring the complementation and fusion of the coarse-grained and fine-grained
semantic information. To solve the above problems, we propose a medical image
segmentation framework called progressive learning network (PL-Net), which
includes internal progressive learning (IPL) and external progressive learning
(EPL). PL-Net has the following advantages: (1) IPL divides feature extraction
into two "steps", which can mix different size receptive fields and capture
semantic information from coarse to fine granularity without introducing
additional parameters; (2) EPL divides the training process into two "stages"
to optimize parameters, and realizes the fusion of coarse-grained information
in the previous stage and fine-grained information in the latter stage. We
evaluate our method in different medical image analysis tasks, and the results
show that the segmentation performance of PL-Net is better than the
state-of-the-art methods of U-Net and its variants.
- Abstract(参考訳): 近年,深層畳み込みニューラルネットワーク(cnns)に基づくセグメンテーション手法が,多くの医療分析課題において最先端の成果を上げている。
しかし、これらのアプローチの多くは、粗粒度と細粒度のセマンティック情報の補完や融合を無視したU-Netの構造を最適化したり、新たな機能モジュールを追加したりすることで、性能を向上させる。
そこで本研究では,内部プログレッシブラーニング(ipl)と外部プログレッシブラーニング(epl)を含む,progressive learning network(pl-net)と呼ばれる医用画像分割フレームワークを提案する。
PL-Netは,(1)IPLが特徴抽出を2つの「ステップ」に分割し,異なる大きさの受容場を混合し,さらにパラメータを加味せずに粗粒度から細粒度まで意味情報を捕捉し,(2)EPLはトレーニングプロセスを2つの「ステージ」に分割してパラメータを最適化し,前段階における粗粒度情報の融合と後半段階における微粒度情報の融合を実現する。
本手法を医用画像解析タスクで評価した結果,pl-net のセグメンテーション性能は u-net の最先端手法やその変種よりも優れていることがわかった。
関連論文リスト
- ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - Semantics-Depth-Symbiosis: Deeply Coupled Semi-Supervised Learning of
Semantics and Depth [83.94528876742096]
我々は,意味的セグメンテーションと深さ推定という2つの密なタスクのMTL問題に取り組み,クロスチャネル注意モジュール(CCAM)と呼ばれる新しいアテンションモジュールを提案する。
次に,AffineMixと呼ばれる予測深度を用いた意味分節タスクのための新しいデータ拡張と,ColorAugと呼ばれる予測セマンティクスを用いた単純な深度増分を定式化する。
最後に,提案手法の性能向上をCityscapesデータセットで検証し,深度と意味に基づく半教師付きジョイントモデルにおける最先端結果の実現を支援する。
論文 参考訳(メタデータ) (2022-06-21T17:40:55Z) - SECP-Net: SE-Connection Pyramid Network of Organ At Risk Segmentation
for Nasopharyngeal Carcinoma [0.0]
深層学習モデルは医用画像セグメンテーションタスクに広く応用されている。
従来のディープニューラルネットワークは、グローバルおよびマルチサイズ情報の使用が欠如しているため、セグメンテーション時に性能が低下する。
本稿ではセグメンテーション性能を向上させるための新しいSE-Connection Pyramid Network(SECP-Net)を提案する。
論文 参考訳(メタデータ) (2021-12-28T07:48:18Z) - Refined Deep Neural Network and U-Net for Polyps Segmentation [2.2997477356053255]
Inception module, Adaptive Convolutional Neural Network with U-Net model, and PraNet for semantic segmentation of various types of polyps in endoscopic image。
提案手法は,複数実験による精度と効率性を示すとともに,Jaccardインデックス0.765で上位3位にランクインした。
論文 参考訳(メタデータ) (2021-05-31T10:02:52Z) - Two layer Ensemble of Deep Learning Models for Medical Image
Segmentation [0.2699900017799093]
医用画像のセグメンテーションのための深層学習モデルの2層アンサンブルを提案する。
トレーニング画像の付加データとして、第1層の各モデルによって作成された各トレーニング画像画素の予測を用いる。
次に、各モデルが結合結果に異なる貢献をする重みに基づくスキームを用いて、第2層の予測を組み合わせる。
論文 参考訳(メタデータ) (2021-04-10T16:52:34Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z) - Image Segmentation Using Hybrid Representations [2.414172101538764]
医用画像セグメンテーションのための DU-Net という,エンド・ツー・エンドのU-Net ベースのネットワークを提案する。
SCは変換不変であり、リプシッツは変形に連続し、DU-Netは他の従来のCNNよりも優れる。
提案手法は,最先端手法と競合する性能を持つ基本U-Netよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-15T13:07:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。