論文の概要: TransNuSeg: A Lightweight Multi-Task Transformer for Nuclei Segmentation
- arxiv url: http://arxiv.org/abs/2307.08051v1
- Date: Sun, 16 Jul 2023 14:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 16:03:37.101997
- Title: TransNuSeg: A Lightweight Multi-Task Transformer for Nuclei Segmentation
- Title(参考訳): transnuseg: 核セグメンテーションのための軽量マルチタスクトランスフォーマ
- Authors: Zhenqi He, Mathias Unberath, Jing Ke, Yiqing Shen
- Abstract要約: 我々は、TransNuSegと呼ばれる核セグメンテーションのための純粋なトランスフォーマーフレームワークの最初の試みを行う。
従来の研究で異なる枝から分岐予測を除去するために、枝間の一貫性を明示的に規定する新たな自己蒸留損失を導入する。
MoNuSegを含む2つのデータセットの実験により、我々の手法は、パラメータを30%減らして、最先端のDiceを2-3%向上させることができることが示された。
- 参考スコア(独自算出の注目度): 6.369485141013728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nuclei appear small in size, yet, in real clinical practice, the global
spatial information and correlation of the color or brightness contrast between
nuclei and background, have been considered a crucial component for accurate
nuclei segmentation. However, the field of automatic nuclei segmentation is
dominated by Convolutional Neural Networks (CNNs), meanwhile, the potential of
the recently prevalent Transformers has not been fully explored, which is
powerful in capturing local-global correlations. To this end, we make the first
attempt at a pure Transformer framework for nuclei segmentation, called
TransNuSeg. Different from prior work, we decouple the challenging nuclei
segmentation task into an intrinsic multi-task learning task, where a
tri-decoder structure is employed for nuclei instance, nuclei edge, and
clustered edge segmentation respectively. To eliminate the divergent
predictions from different branches in previous work, a novel self distillation
loss is introduced to explicitly impose consistency regulation between
branches. Moreover, to formulate the high correlation between branches and also
reduce the number of parameters, an efficient attention sharing scheme is
proposed by partially sharing the self-attention heads amongst the
tri-decoders. Finally, a token MLP bottleneck replaces the over-parameterized
Transformer bottleneck for a further reduction in model complexity. Experiments
on two datasets of different modalities, including MoNuSeg have shown that our
methods can outperform state-of-the-art counterparts such as CA2.5-Net by 2-3%
Dice with 30% fewer parameters. In conclusion, TransNuSeg confirms the strength
of Transformer in the context of nuclei segmentation, which thus can serve as
an efficient solution for real clinical practice. Code is available at
https://github.com/zhenqi-he/transnuseg.
- Abstract(参考訳): 核の大きさは小さいが、実際の臨床実践では、核と背景の間の色や明るさのコントラストのグローバルな空間情報と相関は、正確な核分割にとって重要な要素と考えられている。
しかし、自動核セグメンテーションの分野は畳み込みニューラルネットワーク(cnns)が支配しているが、最近普及したトランスフォーマーのポテンシャルは十分に研究されておらず、局所的グローバル相関を捉えるのに有効である。
この目的のために、我々はtransnusegと呼ばれる純粋な核セグメンテーション用トランスフォーマーフレームワークの最初の試みを行う。
従来の作業と異なり,三重復号器構造をそれぞれ核インスタンス,核エッジ,クラスタ化エッジセグメンテーションに用いた本質的なマルチタスク学習タスクに,挑戦的な核セグメンテーションタスクを分離する。
従来の研究で異なる枝から分岐予測を除去するために,枝間の一貫性を明示的に規定する新たな自己蒸留損失を導入する。
さらに, 分岐間の高い相関関係を定式化し, パラメータ数を削減するために, 自己認識頭部をトリデコーダ間で部分的に共有することで, 効率的な注意共有方式を提案する。
最後に、トークンmlpボトルネックが過剰パラメータのトランスフォーマーボトルネックを置き換えることで、モデルの複雑さがさらに低減される。
MoNuSegを含む2つの異なるモーダル性データセットの実験により、我々の手法はCA2.5-Netのような最先端の手法よりも30%少ないパラメータで2-3%向上できることが示された。
結論として、TransNuSegは核セグメンテーションの文脈でTransformerの強さを確認し、実際の臨床実践の効率的な解決策となる。
コードはhttps://github.com/zhenqi-he/transnusegで入手できる。
関連論文リスト
- Leveraging SO(3)-steerable convolutions for pose-robust semantic segmentation in 3D medical data [2.207533492015563]
球面調和に基づく同変ボクセル畳み込みを用いたセグメンテーションネットワークを新たに提案する。
これらのネットワークは、トレーニング中に見えないデータポーズに対して堅牢であり、トレーニング中にローテーションベースのデータ拡張を必要としない。
MRI脳腫瘍におけるセグメンテーション性能と健常な脳構造セグメンテーション課題について検討した。
論文 参考訳(メタデータ) (2023-03-01T09:27:08Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Full Transformer Framework for Robust Point Cloud Registration with Deep
Information Interaction [9.431484068349903]
最近のTransformerベースの手法は、ポイントクラウドの登録において高度なパフォーマンスを実現している。
近年のCNNは、現地の受容によるグローバルな関係のモデル化に失敗している。
トランスフォーマーの幅の浅いアーキテクチャと位置エンコーディングの欠如は、不明瞭な特徴抽出につながる。
論文 参考訳(メタデータ) (2021-12-17T08:40:52Z) - Bend-Net: Bending Loss Regularized Multitask Learning Network for Nuclei
Segmentation in Histopathology Images [65.47507533905188]
重なり合う核を正確に分離するために、曲げ損失正規化器を備えた新しいマルチタスク学習ネットワークを提案する。
新たに提案されたマルチタスク学習アーキテクチャは、3つのタスクから共有表現を学習することで一般化を促進する。
提案した曲げ損失は,輪郭点を大きな曲率で囲むために高いペナルティを定義し,小さな曲率で凸輪郭点に小さなペナルティを適用した。
論文 参考訳(メタデータ) (2021-09-30T17:29:44Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - A Multi-Branch Hybrid Transformer Networkfor Corneal Endothelial Cell
Segmentation [28.761569157861018]
角膜内皮細胞セグメンテーションは、細胞密度、変動係数、ヘキサゴニティなどの臨床指標を定量化する重要な役割を担っている。
局所的な畳み込みと連続的なダウンサンプリングの受容領域が限られているため、既存のディープラーニングセグメンテーション手法はグローバルコンテキストを完全に活用することはできない。
本稿では,トランスフォーマネットワーク(MBT-Net)をトランスフォーマーとボディーエッジブランチをベースとしたマルチブランチハイブリッドトランスフォーマネットワークを提案する。
論文 参考訳(メタデータ) (2021-05-21T07:31:09Z) - DyCo3D: Robust Instance Segmentation of 3D Point Clouds through Dynamic
Convolution [136.7261709896713]
本稿では,インスタンスの性質に応じて適切な畳み込みカーネルを生成するデータ駆動型アプローチを提案する。
提案手法はScanetNetV2とS3DISの両方で有望な結果が得られる。
また、現在の最先端よりも推論速度を25%以上向上させる。
論文 参考訳(メタデータ) (2020-11-26T14:56:57Z) - Boundary-assisted Region Proposal Networks for Nucleus Segmentation [89.69059532088129]
大量の核が混在しているため、機械学習モデルはうまく機能しない。
我々は、堅牢なインスタンスレベルの核分割を実現する境界支援領域提案ネットワーク(BRP-Net)を考案する。
論文 参考訳(メタデータ) (2020-06-04T08:26:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。