論文の概要: Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection
- arxiv url: http://arxiv.org/abs/2310.14154v1
- Date: Sun, 22 Oct 2023 02:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 01:31:28.379017
- Title: Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection
- Title(参考訳): マルチクラス細胞核検出のためのアフィン整合トランスフォーマー
- Authors: Junjia Huang and Haofeng Li and Xiang Wan and Guanbin Li
- Abstract要約: 本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 76.11864242047074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-class cell nuclei detection is a fundamental prerequisite in the
diagnosis of histopathology. It is critical to efficiently locate and identify
cells with diverse morphology and distributions in digital pathological images.
Most existing methods take complex intermediate representations as learning
targets and rely on inflexible post-refinements while paying less attention to
various cell density and fields of view. In this paper, we propose a novel
Affine-Consistent Transformer (AC-Former), which directly yields a sequence of
nucleus positions and is trained collaboratively through two sub-networks, a
global and a local network. The local branch learns to infer distorted input
images of smaller scales while the global network outputs the large-scale
predictions as extra supervision signals. We further introduce an Adaptive
Affine Transformer (AAT) module, which can automatically learn the key spatial
transformations to warp original images for local network training. The AAT
module works by learning to capture the transformed image regions that are more
valuable for training the model. Experimental results demonstrate that the
proposed method significantly outperforms existing state-of-the-art algorithms
on various benchmarks.
- Abstract(参考訳): 多クラス細胞核検出は病理診断の基本的な前提条件である。
デジタル病理画像の様々な形態と分布を持つ細胞を効率的に同定し同定することが重要である。
既存の手法の多くは、複雑な中間表現を学習対象とし、様々な細胞密度や視野にあまり注意を払わずに、柔軟性のない再定義に依存する。
本稿では,核位置の列を直接生成し,グローバルネットワークとローカルネットワークという2つのサブネットワークで協調的に学習する新しいアフィン整合トランスフォーマを提案する。
ローカルブランチは、小さなスケールの歪んだ入力画像を推測し、グローバルネットワークは、大規模な予測を余分な監視信号として出力する。
さらに,ローカルネットワークトレーニングのために,鍵となる空間変換を自動学習して元の画像に反動させる適応型アフィントランスフォーマティブ(aat)モジュールも導入する。
aatモジュールは、モデルのトレーニングでより価値のある変換されたイメージ領域をキャプチャすることで動作します。
実験の結果,提案手法は,既存の最先端アルゴリズムを様々なベンチマークで大幅に上回ることがわかった。
関連論文リスト
- Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - Towards Hierarchical Regional Transformer-based Multiple Instance
Learning [2.16656895298847]
本稿では,従来の学習注意機構を,地域的な視覚変換装置にインスパイアされた自己認識機構に置き換える,トランスフォーマーに基づくマルチインスタンス学習手法を提案する。
本稿では,地域パッチ情報を融合してスライドレベルの予測を導出し,この地域アグリゲーションをどのように積み重ねて,異なる距離における特徴を階層的に処理するかを示す。
本手法は,2つの病理組織学的データセットのベースライン上での性能を著しく向上させることができ,今後の研究に向けての有望な方向に向かっている。
論文 参考訳(メタデータ) (2023-08-24T08:19:15Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Multiscale Convolutional Transformer with Center Mask Pretraining for
Hyperspectral Image Classificationtion [14.33259265286265]
本稿では,空間スペクトル情報の効率的な抽出を実現するために,高スペクトル画像(HSI)のための高速多スケール畳み込みモジュールを提案する。
マスクオートエンコーダと同様に、我々の事前学習法は、エンコーダ内の中央画素の対応するトークンのみをマスクし、残りのトークンをデコーダに入力し、中央画素のスペクトル情報を再構成する。
論文 参考訳(メタデータ) (2022-03-09T14:42:26Z) - From augmented microscopy to the topological transformer: a new approach
in cell image analysis for Alzheimer's research [0.0]
細胞画像解析は、細胞機能を抑制するA$beta$タンパク質の存在を検出するために、アルツハイマーの研究において重要である。
Unetは,マルチクラスセマンティックスセグメンテーションの性能を比較することで,拡張顕微鏡に最も適していることがわかった。
我々は,Unetモデルを用いて,光電場画像中の原子核を捕捉する拡張顕微鏡法を開発し,入力画像を位相情報列に変換する。
論文 参考訳(メタデータ) (2021-08-03T16:59:33Z) - Enforcing Morphological Information in Fully Convolutional Networks to
Improve Cell Instance Segmentation in Fluorescence Microscopy Images [1.408123603417833]
本稿では,よく知られたU-Netアーキテクチャに基づく新しいセルインスタンス分割手法を提案する。
深部距離変換器(DDT)がバックボーンモデルとして機能する。
その結果,従来のU-Netアーキテクチャよりも性能が向上することが示唆された。
論文 参考訳(メタデータ) (2021-06-10T15:54:38Z) - Less is More: Pay Less Attention in Vision Transformers [61.05787583247392]
注意の少ないvIsion Transformerは、畳み込み、完全接続層、自己アテンションが、画像パッチシーケンスを処理するためにほぼ同等な数学的表現を持つという事実に基づいている。
提案したLITは、画像分類、オブジェクト検出、インスタンス分割を含む画像認識タスクにおいて有望な性能を達成する。
論文 参考訳(メタデータ) (2021-05-29T05:26:07Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。