論文の概要: Dual-Attention Enhanced BDense-UNet for Liver Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2107.11645v1
- Date: Sat, 24 Jul 2021 16:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 04:53:29.035094
- Title: Dual-Attention Enhanced BDense-UNet for Liver Lesion Segmentation
- Title(参考訳): 肝病変分節に対するデュアルアテンション強化BDense-UNet
- Authors: Wenming Cao, Philip L.H. Yu, Gilbert C.S. Lui, Keith W.H. Chiu,
Ho-Ming Cheng, Yanwen Fang, Man-Fung Yuen, Wai-Kay Seto
- Abstract要約: 本稿では,DA-BDense-UNetと呼ばれる,DenseUNetと双方向LSTMを統合した新たなセグメンテーションネットワークを提案する。
DenseUNetは十分な多様な特徴を学習し、情報フローを調節することでネットワークの代表的能力を高める。
- 参考スコア(独自算出の注目度): 3.1667381240856987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a new segmentation network by integrating DenseUNet
and bidirectional LSTM together with attention mechanism, termed as
DA-BDense-UNet. DenseUNet allows learning enough diverse features and enhancing
the representative power of networks by regulating the information flow.
Bidirectional LSTM is responsible to explore the relationships between the
encoded features and the up-sampled features in the encoding and decoding
paths. Meanwhile, we introduce attention gates (AG) into DenseUNet to diminish
responses of unrelated background regions and magnify responses of salient
regions progressively. Besides, the attention in bidirectional LSTM takes into
account the contribution differences of the encoded features and the up-sampled
features in segmentation improvement, which can in turn adjust proper weights
for these two kinds of features. We conduct experiments on liver CT image data
sets collected from multiple hospitals by comparing them with state-of-the-art
segmentation models. Experimental results indicate that our proposed method
DA-BDense-UNet has achieved comparative performance in terms of dice
coefficient, which demonstrates its effectiveness.
- Abstract(参考訳): 本研究では,DA-BDense-UNetと呼ばれる,DenseUNetと双方向LSTMを統合した新たなセグメンテーションネットワークを提案する。
DenseUNetは十分な多様な特徴を学習し、情報フローを調節することでネットワークの代表的能力を高める。
双方向LSTMは、エンコードされた特徴とエンコードおよびデコードパスにおけるアップサンプリングされた特徴の関係を探索する責任がある。
一方,DenseUNetにアテンションゲート(AG)を導入し,無関係な背景領域の応答を減らし,顕著な領域の応答を増大させる。
さらに、双方向LSTMの注目点は、符号化された特徴とセグメント化改善におけるアップサンプル特徴の寄与差を考慮しており、これら2種類の特徴に対する適切な重み付けを調整できる。
複数の病院から収集した肝ct画像データセットを最先端のセグメンテーションモデルと比較して実験を行った。
実験の結果,提案手法のDA-BDense-UNetはダイス係数で比較性能が得られ,その有効性が示された。
関連論文リスト
- It Takes Two: Accurate Gait Recognition in the Wild via Cross-granularity Alignment [72.75844404617959]
本稿では,XGait という新しい粒度アライメント歩行認識手法を提案する。
この目的を達成するために、XGaitはまず2つのバックボーンエンコーダの分岐を含み、シルエットシーケンスとパーシングシーケンスを2つの潜在空間にマッピングする。
2つの大規模な歩行データセットの総合的な実験では、ランク1の精度が80.5%、CCPGが88.3%である。
論文 参考訳(メタデータ) (2024-11-16T08:54:27Z) - multiPI-TransBTS: A Multi-Path Learning Framework for Brain Tumor Image Segmentation Based on Multi-Physical Information [1.7359724605901228]
脳腫瘍距離(BraTS)は、臨床診断、治療計画、脳腫瘍の進行のモニタリングにおいて重要な役割を果たす。
腫瘍の出現、サイズ、強度の変動により、自動セグメンテーションは難しい課題である。
セグメント化精度を高めるために多物理情報を統合するトランスフォーマーベースの新しいフレームワークである MultiPI-TransBTS を提案する。
論文 参考訳(メタデータ) (2024-09-18T17:35:19Z) - Cross Prompting Consistency with Segment Anything Model for Semi-supervised Medical Image Segmentation [44.54301473673582]
半教師付き学習(SSL)は,医用画像のセグメンテーションにおいて顕著な進歩を遂げている。
SAM(Segment Anything Model)のような視覚基盤モデルの最近の発展は、顕著な適応性を示している。
半教師型医用画像分割のためのセグメンテーションモデル(CPC-SAM)を用いたクロスプロンプト整合性手法を提案する。
論文 参考訳(メタデータ) (2024-07-07T15:43:20Z) - DiffVein: A Unified Diffusion Network for Finger Vein Segmentation and
Authentication [50.017055360261665]
DiffVeinは、静脈分割と認証タスクを同時に処理する統合拡散モデルベースのフレームワークである。
これら2つのブランチ間の機能相互作用を改善するために,2つの特別なモジュールを導入する。
このようにして、我々のフレームワークは拡散とセグメンテーションの埋め込みの間の動的相互作用を可能にする。
論文 参考訳(メタデータ) (2024-02-03T06:49:42Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Superresolution and Segmentation of OCT scans using Multi-Stage
adversarial Guided Attention Training [18.056525121226862]
我々は,OCTスキャンを高分解能セグメンテーションラベルに変換する多段階・多識別型生成逆数ネットワーク(MultiSDGAN)を提案する。
我々は,MultiSDGANアーキテクチャに対して,チャネルと空間的注意の様々な組み合わせを評価し,比較し,より強力な特徴マップを抽出する。
その結果,Dice係数とSSIMでは21.44%,19.45%の相対的な改善が見られた。
論文 参考訳(メタデータ) (2022-06-10T00:26:55Z) - Group Gated Fusion on Attention-based Bidirectional Alignment for
Multimodal Emotion Recognition [63.07844685982738]
本稿では、LSTM隠蔽状態上の注目に基づく双方向アライメントネットワークで構成されるGBAN(Gated Bidirectional Alignment Network)と呼ばれる新しいモデルを提案する。
LSTMの最後の隠れ状態よりもアテンション整列表現の方が有意に優れていたことを実証的に示す。
提案したGBANモデルは、IEMOCAPデータセットにおける既存の最先端マルチモーダルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-01-17T09:46:59Z) - A Tri-attention Fusion Guided Multi-modal Segmentation Network [2.867517731896504]
本稿では,新しい三点融合による多モードセグメンテーションネットワークを提案する。
我々のネットワークは、N個の画像ソースを持つN個のモデル非依存の符号化パス、三つのアテンション融合ブロック、二重アテンション融合ブロック、デコードパスを含む。
実験の結果,BraTS 2018データセットを用いて脳腫瘍セグメント化実験を行い,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-11-02T14:36:53Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。