論文の概要: QMaxViT-Unet+: A Query-Based MaxViT-Unet with Edge Enhancement for Scribble-Supervised Segmentation of Medical Images
- arxiv url: http://arxiv.org/abs/2502.10294v1
- Date: Fri, 14 Feb 2025 16:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:45:50.140030
- Title: QMaxViT-Unet+: A Query-Based MaxViT-Unet with Edge Enhancement for Scribble-Supervised Segmentation of Medical Images
- Title(参考訳): QMaxViT-Unet+: 医用画像のスクリブルスーパービジョン分割のためのエッジ強化によるクエリベースのMaxViT-Unet
- Authors: Thien B. Nguyen-Tat, Hoang-An Vo, Phuoc-Sang Dang,
- Abstract要約: 医用画像分割のための新しいフレームワークQMaxViT-Unet+を提案する。
このフレームワークはU-Netアーキテクチャ上に構築されており、エンコーダとデコーダはMulti-Axis Vision Transformer (MaxViT)ブロックに置き換えられている。
提案したQMaxViT-Unet+は, 心構造, 大腸ポリープ, 乳癌に焦点を絞った4つの公開データセットで評価した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The deployment of advanced deep learning models for medical image segmentation is often constrained by the requirement for extensively annotated datasets. Weakly-supervised learning, which allows less precise labels, has become a promising solution to this challenge. Building on this approach, we propose QMaxViT-Unet+, a novel framework for scribble-supervised medical image segmentation. This framework is built on the U-Net architecture, with the encoder and decoder replaced by Multi-Axis Vision Transformer (MaxViT) blocks. These blocks enhance the model's ability to learn local and global features efficiently. Additionally, our approach integrates a query-based Transformer decoder to refine features and an edge enhancement module to compensate for the limited boundary information in the scribble label. We evaluate the proposed QMaxViT-Unet+ on four public datasets focused on cardiac structures, colorectal polyps, and breast cancer: ACDC, MS-CMRSeg, SUN-SEG, and BUSI. Evaluation metrics include the Dice similarity coefficient (DSC) and the 95th percentile of Hausdorff distance (HD95). Experimental results show that QMaxViT-Unet+ achieves 89.1\% DSC and 1.316mm HD95 on ACDC, 88.4\% DSC and 2.226mm HD95 on MS-CMRSeg, 71.4\% DSC and 4.996mm HD95 on SUN-SEG, and 69.4\% DSC and 50.122mm HD95 on BUSI. These results demonstrate that our method outperforms existing approaches in terms of accuracy, robustness, and efficiency while remaining competitive with fully-supervised learning approaches. This makes it ideal for medical image analysis, where high-quality annotations are often scarce and require significant effort and expense. The code is available at: https://github.com/anpc849/QMaxViT-Unet
- Abstract(参考訳): 医用画像セグメンテーションのための高度なディープラーニングモデルの展開は、広範囲の注釈付きデータセットの要求によって制約されることが多い。
ラベルの精度を低くする弱い教師付き学習は、この課題に対する有望な解決策となっている。
提案するQMaxViT-Unet+(QMaxViT-Unet+)は,スクリブル制御型医用画像セグメンテーションのための新しいフレームワークである。
このフレームワークはU-Netアーキテクチャ上に構築されており、エンコーダとデコーダはMulti-Axis Vision Transformer (MaxViT)ブロックに置き換えられている。
これらのブロックは、局所的およびグローバル的特徴を効率的に学習するモデルの能力を高める。
さらに,クエリベースのTransformerデコーダとエッジ拡張モジュールを統合し,スクリブルラベルの限られた境界情報を補償する。
ACDC, MS-CMRSeg, SUN-SEG, BUSIの4つのパブリックデータセットを用いてQMaxViT-Unet+の評価を行った。
評価指標はDice similarity coefficient (DSC) と Hausdorff distance (HD95) の95%である。
実験の結果,QMaxViT-Unet+はACDCで89.1\% DSCと1.316mm HD95,MS-CMRSegで88.4\% DSCと2.226mm HD95,SUN-SEGで71.4\% DSCと4.996mm HD95,BUSIで69.4\% DSCと50.122mm HD95を達成した。
これらの結果から,本手法は,完全教師付き学習手法と競合しながら,精度,堅牢性,効率の点で既存手法よりも優れていることが示された。
これは、高品質なアノテーションが不足し、多大な労力と費用を必要とする場合の、医用画像解析に理想的である。
コードは以下の通り。 https://github.com/anpc849/QMaxViT-Unet
関連論文リスト
- BetterNet: An Efficient CNN Architecture with Residual Learning and Attention for Precision Polyp Segmentation [0.6062751776009752]
本研究では,ポリプセグメンテーションの精度を高めるために,残差学習と注意法を組み合わせた畳み込みニューラルネットワークアーキテクチャであるBetterNetを提案する。
BetterNetは、ポリープの検出と癌の早期認識を強化するために、コンピュータ支援診断技術を統合することを約束している。
論文 参考訳(メタデータ) (2024-05-05T21:08:49Z) - BRAU-Net++: U-Shaped Hybrid CNN-Transformer Network for Medical Image Segmentation [11.986549780782724]
医用画像の正確な分割作業のために,BRAU-Net++ というハイブリッドで効果的な CNN-Transformer ネットワークを提案する。
具体的には、BRAU-Net++は、U字型エンコーダデコーダ構造を設計するために、コアビルディングブロックとしてバイレベルルーティングアテンションを使用する。
提案手法は,そのベースラインであるBRAU-Netを含む,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-01-01T10:49:09Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Q-Segment: Segmenting Images In-Sensor for Vessel-Based Medical
Diagnosis [13.018482089796159]
我々は、量子化されたリアルタイムセグメンテーションアルゴリズム「Q-Segment」を提案し、Sony IMX500を用いて、低消費電力エッジビジョンプラットフォーム上で包括的な評価を行う。
Q-セグメントは、センサー内での超低推論時間(0.23ms)と72mWの消費電力を実現している。
この研究は、エッジベースのイメージセグメンテーションに関する貴重な洞察をもたらし、低消費電力環境に適した効率的なアルゴリズムの基礎を築いた。
論文 参考訳(メタデータ) (2023-12-15T15:01:41Z) - Semantic segmentation of surgical hyperspectral images under geometric
domain shifts [69.91792194237212]
本稿では、幾何学的アウト・オブ・ディストリビューション(OOD)データの存在下で、最先端のセマンティックセグメンテーションネットワークを初めて分析する。
有機移植(Organ transplantation)と呼ばれる専用の拡張技術により、一般化可能性にも対処する。
提案手法は,SOA DSCの最大67 % (RGB) と90% (HSI) を改善し,実際のOODテストデータ上での分配内性能と同等の性能を示す。
論文 参考訳(メタデータ) (2023-03-20T09:50:07Z) - Multi Kernel Positional Embedding ConvNeXt for Polyp Segmentation [7.31341312596412]
本稿では,ConvNeXtバックボーンとMulti Kernel Positional Embeddingブロックで構成される新しいフレームワークを提案する。
我々のモデルは,Kvasir-SEGデータセット上でのDice係数0.8818とIOUスコア0.8163を達成する。
論文 参考訳(メタデータ) (2023-01-17T03:12:57Z) - DilatedSegNet: A Deep Dilated Segmentation Network for Polyp
Segmentation [2.6179759969345002]
大腸癌は世界で2番目に多い死因である。
ディープラーニングを利用したコンピュータ支援診断システム(CAD)は、大腸内視鏡検査中に医師が見落としている大腸の領域を検出することができる。
高い精度とリアルタイム速度の欠如は、そのようなシステムの臨床的統合を成功させるために克服すべき重要な障害である。
論文 参考訳(メタデータ) (2022-10-24T20:36:30Z) - BCS-Net: Boundary, Context and Semantic for Automatic COVID-19 Lung
Infection Segmentation from CT Images [83.82141604007899]
BCS-Netは、CT画像から自動的に新型コロナウイルスの肺感染症を分離するための新しいネットワークである。
BCS-Netはエンコーダ-デコーダアーキテクチャに従っており、多くの設計はデコーダのステージに焦点を当てている。
BCSRブロックでは、アテンション誘導グローバルコンテキスト(AGGC)モジュールがデコーダの最も価値のあるエンコーダ機能を学ぶように設計されている。
論文 参考訳(メタデータ) (2022-07-17T08:54:07Z) - Global Context Vision Transformers [78.5346173956383]
我々は,コンピュータビジョンのパラメータと計算利用を向上する新しいアーキテクチャであるGC ViT(Global context vision transformer)を提案する。
本稿では,ViTにおける帰納バイアスの欠如に対処し,アーキテクチャにおける可溶性逆残差ブロックを改良して活用することを提案する。
提案したGC ViTは,画像分類,オブジェクト検出,セマンティックセマンティックセグメンテーションタスクにまたがる最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-06-20T18:42:44Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。