論文の概要: Regional Registration of Whole Slide Image Stacks Containing Highly
Deformed Artefacts
- arxiv url: http://arxiv.org/abs/2002.12588v1
- Date: Fri, 28 Feb 2020 07:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:05:11.219838
- Title: Regional Registration of Whole Slide Image Stacks Containing Highly
Deformed Artefacts
- Title(参考訳): 高変形人工物を含む全スライド画像スタックの地域登録
- Authors: Mahsa Paknezhad, Sheng Yang Michael Loh, Yukti Choudhury, Valerie Koh
Cui Koh, TimothyTay Kwang Yong, Hui Shan Tan, Ravindran Kanesvaran, Puay Hoon
Tan, John Yuen Shyi Peng, Weimiao Yu, Yongcheng Benjamin Tan, Yong Zhen Loy,
Min-Han Tan, Hwee Kuan Lee
- Abstract要約: 高解像度2次元スライド画像は、組織構造に関する豊富な情報を提供する。
3D解析では、2D画像スタックから組織体積を正確に再構築する必要がある。
スライド画像全体に対する高精度で堅牢な地域登録アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.6619965735371087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivation: High resolution 2D whole slide imaging provides rich information
about the tissue structure. This information can be a lot richer if these 2D
images can be stacked into a 3D tissue volume. A 3D analysis, however, requires
accurate reconstruction of the tissue volume from the 2D image stack. This task
is not trivial due to the distortions that each individual tissue slice
experiences while cutting and mounting the tissue on the glass slide.
Performing registration for the whole tissue slices may be adversely affected
by the deformed tissue regions. Consequently, regional registration is found to
be more effective. In this paper, we propose an accurate and robust regional
registration algorithm for whole slide images which incrementally focuses
registration on the area around the region of interest. Results: Using mean
similarity index as the metric, the proposed algorithm (mean $\pm$ std: $0.84
\pm 0.11$) followed by a fine registration algorithm ($0.86 \pm 0.08$)
outperformed the state-of-the-art linear whole tissue registration algorithm
($0.74 \pm 0.19$) and the regional version of this algorithm ($0.81 \pm 0.15$).
The proposed algorithm also outperforms the state-of-the-art nonlinear
registration algorithm (original : $0.82 \pm 0.12$, regional : $0.77 \pm 0.22$)
for whole slide images and a recently proposed patch-based registration
algorithm (patch size 256: $0.79 \pm 0.16$ , patch size 512: $0.77 \pm 0.16$)
for medical images. Availability: The C++ implementation code is available
online at the github repository:
https://github.com/MahsaPaknezhad/WSIRegistration
- Abstract(参考訳): モチベーション:高解像度2次元スライド画像は組織構造に関する豊富な情報を提供する。
この2D画像が3Dの組織体積に積み重ねられると、この情報はもっと豊かになる。
しかし、3D解析では、2D画像スタックから組織体積を正確に再構築する必要がある。
この作業は、個々の組織スライスがガラススライドに組織を切断して取り付けている間に経験する歪みのため、ささやかなものではない。
組織スライス全体の転写は変形した組織領域に悪影響を及ぼす可能性がある。
その結果、地域登録はより効果的であることが判明した。
本稿では,スライド画像全体に対して,興味のある領域の登録を段階的に重視する,正確かつ堅牢な地域登録アルゴリズムを提案する。
結果:平均類似度指数を指標として、提案アルゴリズム ($\pm$ std: $0.84 \pm 0.11$) とそれに続く詳細な登録アルゴリズム (0.86 \pm 0.08$) は、最先端の線形組織登録アルゴリズム (0.74 \pm 0.19$) と、このアルゴリズムの地域版 (0.81 \pm 0.15$) を上回った。
提案アルゴリズムは、スライド画像全体に対して最先端の非線形登録アルゴリズム(元は$0.82 \pm 0.12$, 地域:$0.77 \pm 0.22$)と、最近提案されたパッチベースの登録アルゴリズム(パッチサイズ256:$0.79 \pm 0.16$, パッチサイズ512:$0.77 \pm 0.16$)より優れている。
可用性: C++実装コードはgithubリポジトリでオンラインで公開されている。
関連論文リスト
- RetinaRegNet: A Zero-Shot Approach for Retinal Image Registration [10.430563602981705]
RetinaRegNetは、最小のオーバーラップ、大きな変形、さまざまな画質で網膜画像を登録するために設計されたゼロショット登録モデルである。
大規模な変形を処理するための2段階の登録フレームワークを実装した。
私たちのモデルは、すべてのデータセットで常に最先端のメソッドより優れています。
論文 参考訳(メタデータ) (2024-04-24T17:50:37Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - MetaRegNet: Metamorphic Image Registration Using Flow-Driven Residual
Networks [5.781678712645597]
本稿では,時間変動流を用いた深部メタモルフィック画像登録ネットワーク(MetaRegNet)を提案する。
そこで我々はMetaRegNetを脳腫瘍のBraTS 2021と肝腫瘍の3D-IRCADb-01の2つのデータセットで評価した。
論文 参考訳(メタデータ) (2023-03-16T05:24:13Z) - Recurrence With Correlation Network for Medical Image Registration [66.63200823918429]
本稿では,医療画像登録ネットワークであるRecurrence with correlation Network (RWCNet)について述べる。
これらの特徴により、2つの画像登録データセットにおける医用画像登録精度が向上することが実証された。
論文 参考訳(メタデータ) (2023-02-05T02:41:46Z) - 3D-GMIC: an efficient deep neural network to find small objects in large
3D images [41.334361182700164]
3Dイメージングは、臓器解剖に関する空間情報を提供することにより、より正確な診断を可能にする。
AIモデルのトレーニングに3Dイメージを使用することは、その2Dモデルよりも数十から数百倍のピクセルで構成されているため、計算的に困難である。
本稿では,3次元医用画像の完全解像度で計算効率の良い分類を可能にするニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-10-16T21:58:54Z) - EpiGRAF: Rethinking training of 3D GANs [60.38818140637367]
本稿では,SotA画像品質の高い高解像度3Dジェネレータを,パッチワイズを単純に訓練するまったく異なる経路を辿ることによって実現可能であることを示す。
EpiGRAFと呼ばれる結果のモデルは、効率的で高解像度で純粋な3Dジェネレータである。
論文 参考訳(メタデータ) (2022-06-21T17:08:23Z) - Ink Marker Segmentation in Histopathology Images Using Deep Learning [1.0118241139691948]
本稿では, 深層ネットワークを通じて, 病的パッチのインクマーク領域を分割することを提案する。
スライド画像全体の79ドルのデータセットと4,305ドルのパッチが作成され、さまざまなネットワークがトレーニングされた。
その結果、EffiecentNet-B3をベースとしたFPNモデルは、F1スコア94.53%の優れた構成であることが判明した。
論文 参考訳(メタデータ) (2020-10-29T18:09:59Z) - Hard Example Generation by Texture Synthesis for Cross-domain Shape
Similarity Learning [97.56893524594703]
画像に基づく3次元形状検索(IBSR)は、与えられた2次元画像の対応する3次元形状を、大きな3次元形状データベースから見つけることを目的としている。
いくつかの適応技法によるメートル法学習は、類似性学習を形作るための自然な解決策のようです。
テクスチャ合成を応用した幾何中心の多視点メトリック学習フレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-23T08:52:00Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - Map3D: Registration Based Multi-Object Tracking on 3D Serial Whole Slide
Images [10.519063258650508]
本稿では,3Dオブジェクトの大規模断面の自動同定と関連付けを行う3D(Map3D)手法を提案する。
提案手法はMOTA=44.6であり,非ディープラーニングベンチマークよりも12.1%高い。
論文 参考訳(メタデータ) (2020-06-10T19:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。