論文の概要: FocalUNETR: A Focal Transformer for Boundary-aware Segmentation of CT
Images
- arxiv url: http://arxiv.org/abs/2210.03189v2
- Date: Tue, 18 Jul 2023 21:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 18:13:46.147209
- Title: FocalUNETR: A Focal Transformer for Boundary-aware Segmentation of CT
Images
- Title(参考訳): FocalUNETR:CT画像の境界認識セグメンテーションのためのFocal Transformer
- Authors: Chengyin Li, Yao Qiang, Rafi Ibn Sultan, Hassan Bagher-Ebadian,
Prashant Khanduri, Indrin J. Chetty, and Dongxiao Zhu
- Abstract要約: 局所的な視覚特徴と大域的な文脈をCT画像から抽出する焦点変換器を用いた画像分割アーキテクチャを提案する。
この設計により、他の競合手法よりもCTベースの前立腺分割作業の質が大幅に向上することが実証された。
- 参考スコア(独自算出の注目度): 6.616213497895369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computed Tomography (CT) based precise prostate segmentation for treatment
planning is challenging due to (1) the unclear boundary of the prostate derived
from CT's poor soft tissue contrast and (2) the limitation of convolutional
neural network-based models in capturing long-range global context. Here we
propose a novel focal transformer-based image segmentation architecture to
effectively and efficiently extract local visual features and global context
from CT images. Additionally, we design an auxiliary boundary-induced label
regression task coupled with the main prostate segmentation task to address the
unclear boundary issue in CT images. We demonstrate that this design
significantly improves the quality of the CT-based prostate segmentation task
over other competing methods, resulting in substantially improved performance,
i.e., higher Dice Similarity Coefficient, lower Hausdorff Distance, and Average
Symmetric Surface Distance, on both private and public CT image datasets. Our
code is available at this
\href{https://github.com/ChengyinLee/FocalUNETR.git}{link}.
- Abstract(参考訳): CT(CT)を用いた治療計画のための精密前立腺分節化は,(1)CTの軟組織コントラストから得られた前立腺の境界が不明瞭であること,(2)長距離グローバルコンテキストを捉えるための畳み込みニューラルネットワークベースモデルの制限により困難である。
本稿では,CT画像から局所的な視覚特徴とグローバルな文脈を効果的に抽出する焦点変換器を用いた画像分割アーキテクチャを提案する。
さらに,CT画像における不明瞭な境界問題に対処するために,補助的境界誘発ラベル回帰タスクと主前立腺セグメンテーションタスクを併用して設計する。
この設計により、他の競合する手法よりもCTベースの前立腺分割タスクの質が大幅に向上し、より高いDice類似度係数、低いHausdorff Distance、および平均対称表面距離が、プライベートおよびパブリックの両方のCT画像データセット上で大幅に向上することを示した。
私たちのコードは、この \href{https://github.com/ChengyinLee/FocalUNETR.git}{link} で利用可能です。
関連論文リスト
- CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - Low-Dose CT Image Reconstruction by Fine-Tuning a UNet Pretrained for
Gaussian Denoising for the Downstream Task of Image Enhancement [3.7960472831772765]
Computed Tomography (CT) は医用画像モダリティとして広く用いられているが,低用量CTデータからの再構成は難しい課題である。
本稿では,LDCT画像の再構成を行うための,より複雑な2段階の手法を提案する。
提案手法は,LoDoPaB-CTチャレンジにおける共有トップランキングと,SSIMメトリックに対する第1位を実現する。
論文 参考訳(メタデータ) (2024-03-06T08:51:09Z) - APRF: Anti-Aliasing Projection Representation Field for Inverse Problem
in Imaging [74.9262846410559]
Sparse-view Computed Tomography (SVCT) は画像の逆問題である。
近年の研究では、インプリシット・ニューラル・リ表現(INR)を用いて、シングラムとCT画像の座標に基づくマッピングを構築している。
自己教師型SVCT再構成法の提案 -抗エイリアス射影表現場(APRF)-
APRFは空間的制約によって隣接する投影ビュー間の連続的な表現を構築することができる。
論文 参考訳(メタデータ) (2023-07-11T14:04:12Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Anatomically constrained CT image translation for heterogeneous blood
vessel segmentation [3.88838725116957]
造影CT(ceCT)画像の解剖学的構造は, 造影剤拡散の変動により, 分画が困難になる可能性がある。
放射線線量を制限するために、生成モデルは1つのモダリティを合成するために用いられる。
CycleGANは、ペアデータの必要性を軽減するため、特に注目を集めている。
本稿では,高忠実度画像を生成するためのCycleGANの拡張について述べる。
論文 参考訳(メタデータ) (2022-10-04T16:14:49Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - DuDoTrans: Dual-Domain Transformer Provides More Attention for Sinogram
Restoration in Sparse-View CT Reconstruction [13.358197688568463]
撮像過程におけるヨウ素の放射線は 不可逆的な損傷を引き起こす
スパースビューCT画像に現れるアーティファクトを緩和する反復モデルが提案されているが,コストが高すぎる。
textbfDual-textbfDomain textbfDuDoTransを提案する。
論文 参考訳(メタデータ) (2021-11-21T10:41:07Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Segmentation-Renormalized Deep Feature Modulation for Unpaired Image
Harmonization [0.43012765978447565]
サイクル一貫性のある生成共役ネットワークは、ソースとターゲットドメイン間のイメージセットの調和に使われてきた。
これらの手法は、不安定性、コントラストの逆転、病理の難治性操作、および実際の医用画像における信頼性を制限したステガノグラフィーマッピングの傾向が強い。
解剖学的レイアウトを維持しながらスキャナ間の調和を低減するセグメンテーション正規化画像翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-11T23:53:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。