論文の概要: GloFlow: Global Image Alignment for Creation of Whole Slide Images for
Pathology from Video
- arxiv url: http://arxiv.org/abs/2010.15269v2
- Date: Thu, 12 Nov 2020 08:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:11:53.903456
- Title: GloFlow: Global Image Alignment for Creation of Whole Slide Images for
Pathology from Video
- Title(参考訳): gloflow:ビデオから病理診断のための全スライド画像作成のためのグローバル画像アライメント
- Authors: Viswesh Krishna, Anirudh Joshi, Philip L. Bulterys, Eric Yang, Andrew
Y. Ng, Pranav Rajpurkar
- Abstract要約: 本稿では,大域的アライメントを伴う光フローベース画像登録を用いて,スライド画像全体を作成するための2段階の手法を提案する。
第1段階では、連続するビデオフレーム間のペアワイズ変換を予測し、縫合を近似する光フロー予測器を訓練する。
第2段階では、この近似縫合を用いて近傍グラフを作成し、修正縫合を生成する。
- 参考スコア(独自算出の注目度): 4.204987617669801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of deep learning to pathology assumes the existence of
digital whole slide images of pathology slides. However, slide digitization is
bottlenecked by the high cost of precise motor stages in slide scanners that
are needed for position information used for slide stitching. We propose
GloFlow, a two-stage method for creating a whole slide image using optical
flow-based image registration with global alignment using a computationally
tractable graph-pruning approach. In the first stage, we train an optical flow
predictor to predict pairwise translations between successive video frames to
approximate a stitch. In the second stage, this approximate stitch is used to
create a neighborhood graph to produce a corrected stitch. On a simulated
dataset of video scans of WSIs, we find that our method outperforms known
approaches to slide-stitching, and stitches WSIs resembling those produced by
slide scanners.
- Abstract(参考訳): 病理学への深層学習の適用は、病理学スライドのデジタル全スライド画像の存在を前提としている。
しかし,スライドのデジタル化は,スライドスライスに使用する位置情報に必要なスライススキャナにおいて,高精度なモータステージのコストによってボトルネックとなる。
そこで本研究では,グローバルアライメントを用いた光学フローベース画像登録を用いた2段階のスライド画像作成法であるgloflowを提案する。
第1段階では、連続するビデオフレーム間のペアワイズ変換を予測し、縫合を近似する光フロー予測器を訓練する。
第2段階では、この近似縫合を用いて近傍グラフを作成し、修正縫合を生成する。
wsisのビデオスキャンをシミュレートしたデータセットでは,本手法がスライドストッチングの既知のアプローチよりも優れており,スライディングスキャナによって生成されたものと類似したwsisを縫い合わせることができる。
関連論文リスト
- SlideGCD: Slide-based Graph Collaborative Training with Knowledge Distillation for Whole Slide Image Classification [4.994171453938461]
最近の研究は、スライド間の相関を無視した1つのWSIの内部コンテキスト情報に主に焦点を当てている。
本稿では,既存のマルチインスタンス学習(MIL)手法をバックボーンとして考慮し,ノード分類問題としてWSI分類タスクをフォークする汎用的なWSI解析パイプラインSlideGCDを提案する。
2つのTCGAベンチマークデータセットで、これまでの4つの最先端MILメソッドのSlideGCDによる一貫したパフォーマンス向上が観察された。
論文 参考訳(メタデータ) (2024-07-12T03:32:13Z) - RetinaRegNet: A Zero-Shot Approach for Retinal Image Registration [10.430563602981705]
RetinaRegNetは、最小のオーバーラップ、大きな変形、さまざまな画質で網膜画像を登録するために設計されたゼロショット登録モデルである。
大規模な変形を処理するための2段階の登録フレームワークを実装した。
私たちのモデルは、すべてのデータセットで常に最先端のメソッドより優れています。
論文 参考訳(メタデータ) (2024-04-24T17:50:37Z) - Pix2Gif: Motion-Guided Diffusion for GIF Generation [70.64240654310754]
画像からGIF(ビデオ)生成のための移動誘導拡散モデルPix2Gifを提案する。
本研究では,2種類のプロンプトに条件付きソース画像の特徴を空間的に変換する動き誘導型ワープモジュールを提案する。
モデルトレーニングの準備として、TGIFビデオキャプチャデータセットからコヒーレントな画像フレームを抽出し、精巧にデータをキュレートした。
論文 参考訳(メタデータ) (2024-03-07T16:18:28Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Sketch Video Synthesis [52.134906766625164]
フレームワイドB'ezier曲線で表現されたビデオのスケッチを行うための新しいフレームワークを提案する。
本手法は、スケッチベースのビデオ編集やビデオ合成によるビデオ再生における応用を解放する。
論文 参考訳(メタデータ) (2023-11-26T14:14:04Z) - Slideflow: Deep Learning for Digital Histopathology with Real-Time
Whole-Slide Visualization [49.62449457005743]
われわれはSlideflowと呼ばれる病理組織学のための柔軟なディープラーニングライブラリを開発した。
デジタル病理学のための幅広い深層学習手法をサポートしている。
トレーニングされたモデルをデプロイするための、高速な全スライドインターフェースが含まれている。
論文 参考訳(メタデータ) (2023-04-09T02:49:36Z) - SceneComposer: Any-Level Semantic Image Synthesis [80.55876413285587]
任意の精度のセマンティックレイアウトから条件付き画像合成のための新しいフレームワークを提案する。
このフレームワークは、形状情報のない最低レベルのテキスト・トゥ・イメージ(T2I)に自然に還元され、最高レベルのセグメンテーション・トゥ・イメージ(S2I)となる。
本稿では,この新たなセットアップの課題に対処する,新しいテクニックをいくつか紹介する。
論文 参考訳(メタデータ) (2022-11-21T18:59:05Z) - Text-to-Image Generation Grounded by Fine-Grained User Attention [62.94737811887098]
Localized Narrativesは、マウストレースと組み合わせた画像の詳細な自然言語記述を備えたデータセットである。
本稿では、このグラウンド化を利用して画像を生成するシーケンシャルモデルであるTReCSを提案する。
論文 参考訳(メタデータ) (2020-11-07T13:23:31Z) - Ink Marker Segmentation in Histopathology Images Using Deep Learning [1.0118241139691948]
本稿では, 深層ネットワークを通じて, 病的パッチのインクマーク領域を分割することを提案する。
スライド画像全体の79ドルのデータセットと4,305ドルのパッチが作成され、さまざまなネットワークがトレーニングされた。
その結果、EffiecentNet-B3をベースとしたFPNモデルは、F1スコア94.53%の優れた構成であることが判明した。
論文 参考訳(メタデータ) (2020-10-29T18:09:59Z) - TRANSPR: Transparency Ray-Accumulating Neural 3D Scene Point Renderer [6.320273914694594]
本稿では,半透明シーンをモデル化可能なニューラルポイントベースグラフィックス手法を提案し,評価する。
半透明な点雲のシーンの新たなビューは、我々のアプローチでトレーニングした後に生成できることを示す。
論文 参考訳(メタデータ) (2020-09-06T21:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。