論文の概要: GRN+: A Simplified Generative Reinforcement Network for Tissue Layer Analysis in 3D Ultrasound Images for Chronic Low-back Pain
- arxiv url: http://arxiv.org/abs/2503.19736v1
- Date: Tue, 25 Mar 2025 15:03:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:54:01.277750
- Title: GRN+: A Simplified Generative Reinforcement Network for Tissue Layer Analysis in 3D Ultrasound Images for Chronic Low-back Pain
- Title(参考訳): GRN+:慢性腰痛に対する3次元超音波像の組織層解析のための簡易な生成強化ネットワーク
- Authors: Zixue Zeng, Xiaoyan Zhao, Matthew Cartier, Xin Meng, Jiantao Pu,
- Abstract要約: 3D超音波は、痛みの研究に欠かせない、軟部組織の高解像度でリアルタイムな画像を提供する。
我々は,最小限の注釈付きデータによるセグメンテーションを自動化する新しいマルチモデルフレームワークであるGRN+を開発し,検証した。
GRN+は、6つの組織層を手動でラベル付けした29名の被験者から、69名の完全注釈付き3D超音波スキャンで試験された。
- 参考スコア(独自算出の注目度): 3.883593424359011
- License:
- Abstract: 3D ultrasound delivers high-resolution, real-time images of soft tissues, which is essential for pain research. However, manually distinguishing various tissues for quantitative analysis is labor-intensive. To streamline this process, we developed and validated GRN+, a novel multi-model framework that automates layer segmentation with minimal annotated data. GRN+ combines a ResNet-based generator and a U-Net segmentation model. Through a method called Segmentation-guided Enhancement (SGE), the generator produces new images and matching masks under the guidance of the segmentation model, with its weights adjusted according to the segmentation loss gradient. To prevent gradient explosion and secure stable training, a two-stage backpropagation strategy was implemented: the first stage propagates the segmentation loss through both the generator and segmentation model, while the second stage concentrates on optimizing the segmentation model alone, thereby refining mask prediction using the generated images. Tested on 69 fully annotated 3D ultrasound scans from 29 subjects with six manually labeled tissue layers, GRN+ outperformed all other semi-supervised methods in terms of the Dice coefficient using only 5% labeled data, despite not using unlabeled data for unsupervised training. Additionally, when applied to fully annotated datasets, GRN+ with SGE achieved a 2.16% higher Dice coefficient while incurring lower computational costs compared to other models. Overall, GRN+ provides accurate tissue segmentation while reducing both computational expenses and the dependency on extensive annotations, making it an effective tool for 3D ultrasound analysis in cLBP patients.
- Abstract(参考訳): 3D超音波は、痛みの研究に欠かせない、軟部組織の高解像度でリアルタイムな画像を提供する。
しかし、定量的分析のために様々な組織を手動で区別することは、労働集約的である。
このプロセスを合理化するために、最小限の注釈付きデータで層分割を自動化する新しいマルチモデルフレームワークであるGRN+を開発し、検証した。
GRN+はResNetベースのジェネレータとU-Netセグメンテーションモデルを組み合わせたものである。
Segmentation-Guided Enhancement (SGE) と呼ばれる手法により、ジェネレータはセグメント化モデルのガイダンスに基づいて新しい画像とマッチングマスクを生成し、セグメント化損失勾配に応じてその重みを調整する。
グラデーションの爆発を防止し,安定したトレーニングを確保するため,第1段はジェネレータとセグメンテーションモデルの両方を通じてセグメンテーション損失を伝播し,第2段はセグメンテーションモデルのみを最適化することに集中し,生成した画像を用いてマスク予測を精査する2段階のバックプロパゲーション戦略が導入された。
GRN+は、6つの組織層を手動でラベル付けした29名の被験者から、69名の完全注釈付き3D超音波スキャンで試験された。
さらに、完全に注釈付けされたデータセットに適用すると、GRN+とSGEはDice係数を2.16%高め、他のモデルに比べて計算コストが低い。
全体として、GRN+は正確な組織セグメンテーションを提供し、計算コストと広範なアノテーションへの依存を減らし、cLBP患者の3D超音波解析に有効なツールである。
関連論文リスト
- Segmentation-Aware Generative Reinforcement Network (GRN) for Tissue Layer Segmentation in 3-D Ultrasound Images for Chronic Low-back Pain (cLBP) Assessment [11.48510074298042]
生成強化ネットワーク(GRN)と呼ばれる新しいセグメンテーション対応ジョイントトレーニングフレームワークについて紹介する。
GRNはセグメンテーション損失フィードバックを統合し、画像生成とセグメンテーションのパフォーマンスを1段階で最適化する。
サンプル効率学習用GRN(GRN-SEL)と半教師付き学習用GRN(GRN-SSL)の2種類も開発されている。
論文 参考訳(メタデータ) (2025-01-29T14:58:48Z) - 3D PETCT Tumor Lesion Segmentation via GCN Refinement [4.929126432666667]
グラフ畳み込みニューラルネットワーク(GCN)に基づく後処理手法を提案する。
MICCIA2022 autoPET ChallengeにおいてPET/CTデータセットの腫瘍分画実験を行った。
実験結果から, nnUNet-GCNの改良により偽陽性率が効果的に減少することが示唆された。
論文 参考訳(メタデータ) (2023-02-24T10:52:08Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Multi-organ Segmentation Network with Adversarial Performance Validator [10.775440368500416]
本稿では,2次元から3次元のセグメンテーションフレームワークに対向的な性能検証ネットワークを導入する。
提案したネットワークは, 2次元粗い結果から3次元高品質なセグメンテーションマスクへの変換を行い, 共同最適化によりセグメンテーション精度が向上する。
NIH膵分節データセットの実験では、提案したネットワークが小臓器分節の最先端の精度を達成し、過去の最高性能を上回った。
論文 参考訳(メタデータ) (2022-04-16T18:00:29Z) - PSGR: Pixel-wise Sparse Graph Reasoning for COVID-19 Pneumonia
Segmentation in CT Images [83.26057031236965]
画像中の新型コロナウイルス感染領域セグメンテーションの長距離依存性のモデリングを強化するために,PSGRモジュールを提案する。
PSGRモジュールは不正確なピクセルからノードへの投影を回避し、グローバルな推論のために各ピクセル固有の情報を保存する。
このソリューションは、3つの公開データセット上の4つの広く使われているセグメンテーションモデルに対して評価されている。
論文 参考訳(メタデータ) (2021-08-09T04:58:23Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Upgraded W-Net with Attention Gates and its Application in Unsupervised
3D Liver Segmentation [0.0]
自動セグメンテーションのための教師なしディープラーニングに基づくアプローチを提案する。
我々はW-Netアーキテクチャを使用し、それを3Dボリュームに適用できるように修正した。
提案法は,手動セグメンテーションと比較して肝臓セグメンテーションに対するサイス係数0.88で有望な結果を示した。
論文 参考訳(メタデータ) (2020-11-20T21:45:28Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - DDU-Nets: Distributed Dense Model for 3D MRI Brain Tumor Segmentation [27.547646527286886]
分散高密度接続(DDC)の3つのパターンが提案され,CNNの機能再利用と伝播が促進される。
DDC(DDU-Nets)を組み込んだCNNベースのモデルでは,3次元MR画像から脳腫瘍をよりよく検出し,セグメンテーションするために,ピクセルからピクセルへの効率よくトレーニングを行う。
提案手法はBraTS 2019データセットで評価され,DDU-Netsの有効性が示された。
論文 参考訳(メタデータ) (2020-03-03T05:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。