論文の概要: Skin Lesion Segmentation Improved by Transformer-based Networks with
Inter-scale Dependency Modeling
- arxiv url: http://arxiv.org/abs/2310.13604v1
- Date: Fri, 20 Oct 2023 15:53:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 22:04:38.250744
- Title: Skin Lesion Segmentation Improved by Transformer-based Networks with
Inter-scale Dependency Modeling
- Title(参考訳): スケール依存モデルを用いたトランスフォーマネットワークによる皮膚病変分割の改善
- Authors: Sania Eskandari, Janet Lumpp, Luis Sanchez Giraldo
- Abstract要約: メラノーマは異常な皮膚細胞増殖に起因する皮膚癌の一種である。
対称的U-Netモデルの畳み込み操作への依存は、長距離依存をキャプチャする能力を妨げている。
この制限を克服するために、TransformerベースのいくつかのU-Netトポロジが最近作成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Melanoma, a dangerous type of skin cancer resulting from abnormal skin cell
growth, can be treated if detected early. Various approaches using Fully
Convolutional Networks (FCNs) have been proposed, with the U-Net architecture
being prominent To aid in its diagnosis through automatic skin lesion
segmentation. However, the symmetrical U-Net model's reliance on convolutional
operations hinders its ability to capture long-range dependencies crucial for
accurate medical image segmentation. Several Transformer-based U-Net topologies
have recently been created to overcome this limitation by replacing CNN blocks
with different Transformer modules to capture local and global representations.
Furthermore, the U-shaped structure is hampered by semantic gaps between the
encoder and decoder. This study intends to increase the network's feature
re-usability by carefully building the skip connection path. Integrating an
already calculated attention affinity within the skip connection path improves
the typical concatenation process utilized in the conventional skip connection
path. As a result, we propose a U-shaped hierarchical Transformer-based
structure for skin lesion segmentation and an Inter-scale Context Fusion (ISCF)
method that uses attention correlations in each stage of the encoder to
adaptively combine the contexts from each stage to mitigate semantic gaps. The
findings from two skin lesion segmentation benchmarks support the ISCF module's
applicability and effectiveness. The code is publicly available at
\url{https://github.com/saniaesk/skin-lesion-segmentation}
- Abstract(参考訳): 異常な皮膚細胞増殖に起因する危険な皮膚がんであるメラノーマは、早期に検出された場合に治療することができる。
完全畳み込みネットワーク(fcns)を用いた様々なアプローチが提案されており、u-netアーキテクチャは自動的に皮膚病変を分割することで診断を支援する。
しかし、対称 u-net モデルの畳み込み操作への依存は、正確な医療画像のセグメンテーションに必須の長距離依存性を捉える能力を妨げる。
TransformerベースのいくつかのU-Netトポロジが最近作成され、ローカルおよびグローバル表現をキャプチャするために、CNNブロックを異なるTransformerモジュールに置き換えることで、この制限を克服している。
さらに、U字型構造はエンコーダとデコーダのセマンティックギャップによって妨げられる。
本研究は,スキップ接続経路を慎重に構築することにより,ネットワークの機能再利用性を高めることを目的としている。
スキップ接続経路に既に計算済みの注意親和性を統合することにより、従来のスキップ接続経路で使用される典型的な連結プロセスが改善される。
そこで,本研究では,皮膚病変分割のためのu字型階層的トランスフォーマー構造と,エンコーダの各段階における注意相関を用いて,各段階のコンテキストを適応的に結合して意味的ギャップを緩和するiscf法を提案する。
2つの皮膚病変セグメンテーションベンチマークの結果は、ISCFモジュールの適用性と有効性を支持している。
コードは \url{https://github.com/saniaesk/skin-lesion-segmentation} で公開されている。
関連論文リスト
- TransUKAN:Computing-Efficient Hybrid KAN-Transformer for Enhanced Medical Image Segmentation [5.280523424712006]
U-Netは現在、医療画像セグメンテーションの最も広く使われているアーキテクチャである。
我々は、メモリ使用量と計算負荷を減らすためにkanを改善した。
このアプローチは、非線形関係をキャプチャするモデルの能力を高める。
論文 参考訳(メタデータ) (2024-09-23T02:52:49Z) - SkinMamba: A Precision Skin Lesion Segmentation Architecture with Cross-Scale Global State Modeling and Frequency Boundary Guidance [0.559239450391449]
皮膚病変のセグメンテーションは早期皮膚癌を同定するための重要な方法である。
我々は、SkinMambaと呼ばれるMambaとCNNをベースとしたハイブリッドアーキテクチャを提案する。
強力な長距離依存性モデリングとローカル機能抽出機能を提供しながら、線形複雑性を維持している。
論文 参考訳(メタデータ) (2024-09-17T05:02:38Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Inter-Scale Dependency Modeling for Skin Lesion Segmentation with
Transformer-based Networks [0.0]
メラノーマは皮膚細胞の異常増殖によって引き起こされる皮膚がんの危険形態である。
U-Netアーキテクチャを含むFCNアプローチは、皮膚病変を自動的に分割して診断を支援する。
対称的U-Netモデルは優れた結果を示しているが、畳み込み演算を用いることで、長距離依存を捕捉する能力は制限されている。
論文 参考訳(メタデータ) (2023-10-20T16:20:25Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Attention Swin U-Net: Cross-Contextual Attention Mechanism for Skin
Lesion Segmentation [4.320393382724066]
我々は,注目度に基づくSwin U-Net拡張であるAtt-SwinU-Netを医用画像セグメンテーションのために提案する。
我々は、スキップ接続経路で使用される古典的連結操作は、注意機構を組み込むことで、さらに改善できると論じる。
論文 参考訳(メタデータ) (2022-10-30T17:41:35Z) - TransNorm: Transformer Provides a Strong Spatial Normalization Mechanism
for a Deep Segmentation Model [4.320393382724066]
畳み込みニューラルネットワーク(CNN)は、医療画像処理時代の主流技術である。
本稿では,Transformerモジュールをエンコーダとスキップ接続の両方に統合する,新しいディープセグメンテーションフレームワークであるTrans-Normを提案する。
論文 参考訳(メタデータ) (2022-07-27T09:54:10Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Semantic Correspondence with Transformers [68.37049687360705]
本稿では,変換器を用いたコストアグリゲーション(CAT)を提案し,意味論的に類似した画像間の密接な対応を見出す。
初期相関マップと多レベルアグリゲーションを曖昧にするための外観親和性モデリングを含む。
提案手法の有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-06-04T14:39:03Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。