論文の概要: Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing
- arxiv url: http://arxiv.org/abs/2003.06630v1
- Date: Sat, 14 Mar 2020 13:40:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 20:28:42.158556
- Title: Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing
- Title(参考訳): 学習に基づく2ショット仮想オートフォーカスによるラピッドフルスライドイメージング
- Authors: Qiang Li, Xianming Liu, Kaige Han, Cheng Guo, Xiangyang Ji, and
Xiaolin Wu
- Abstract要約: ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
- 参考スコア(独自算出の注目度): 57.90239401665367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole slide imaging (WSI) is an emerging technology for digital pathology.
The process of autofocusing is the main influence of the performance of WSI.
Traditional autofocusing methods either are time-consuming due to repetitive
mechanical motions, or require additional hardware and thus are not compatible
to current WSI systems. In this paper, we propose the concept of
\textit{virtual autofocusing}, which does not rely on mechanical adjustment to
conduct refocusing but instead recovers in-focus images in an offline
learning-based manner. With the initial focal position, we only perform
two-shot imaging, in contrast traditional methods commonly need to conduct as
many as 21 times image shooting in each tile scanning. Considering that the two
captured out-of-focus images retain pieces of partial information about the
underlying in-focus image, we propose a U-Net-inspired deep neural network
based approach for fusing them into a recovered in-focus image. The proposed
scheme is fast in tissue slides scanning, enabling a high-throughput generation
of digital pathology images. Experimental results demonstrate that our scheme
achieves satisfactory refocusing performance.
- Abstract(参考訳): whole slide imaging (wsi) はデジタル病理学の新しい技術である。
オートフォーカスのプロセスは、wsiのパフォーマンスの主な影響である。
従来のオートフォーカス方式は、反復的な機械的動作による時間消費であるか、追加のハードウェアを必要とするため、現在のwsiシステムと互換性がない。
本稿では,リフォーカスを行うための機械的な調整に頼らず,オフライン学習によるインフォーカス画像を復元する \textit{virtual autofocusing} の概念を提案する。
従来の方法では、タイルスキャン毎に最大21回の撮影を行う必要があるが、初期焦点位置では2枚撮影のみを行う。
そこで本研究では,u-netにインスパイアされた深層ニューラルネットワークを用いて,被写体に焦点を合わせられた2つの画像が焦点内画像に関する部分情報を保持していることを考慮し,焦点内画像に融合する手法を提案する。
提案手法は組織スライドスキャンにおいて高速であり,デジタル病理画像の高スループット生成を可能にする。
実験の結果,本方式は良好なリフォーカス性能を実現することがわかった。
関連論文リスト
- Reblurring-Guided Single Image Defocus Deblurring: A Learning Framework with Misaligned Training Pairs [65.25002116216771]
本稿では,単一画像デフォーカス・デブロアリングのためのリブロアリング誘導学習フレームワークを提案する。
我々のリブラーリングモジュールは、デブラーレッド画像とリブラーレッド画像と入力ぼかし画像との空間的整合性を保証する。
我々は,典型的な誤認識を伴わない単一画像デフォーカスのための新しいデータセットを収集した。
論文 参考訳(メタデータ) (2024-09-26T12:37:50Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Learnable Blur Kernel for Single-Image Defocus Deblurring in the Wild [9.246199263116067]
本稿では,デフォーカスマップのガイダンスを用いて画像のデブロリングを実装する新しいデフォーカスデブロアリング法を提案する。
提案手法は,デフォーカスマップを推定する学習可能なぼかしカーネルと,デフォーカスGAN(Generative Adversarial Network)を初めてデフォーカスする単一イメージデフォーカスとから構成される。
論文 参考訳(メタデータ) (2022-11-25T10:47:19Z) - Learning to Deblur using Light Field Generated and Real Defocus Images [4.926805108788465]
デフォーカス・デブロワーリングは、デフォーカス・ボケの性質が空間的に変化するため、困難な作業である。
本稿では,光の強度を活用し,光源の欠点を克服する新しいディープデフォーカス・デブロアリング・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T11:35:51Z) - Defocus Map Estimation and Deblurring from a Single Dual-Pixel Image [54.10957300181677]
本稿では,1枚のデュアルピクセルイメージを入力として,画像のデフォーカスマップを同時に推定する手法を提案する。
本手法は,デフォーカスマップ推定とぼかし除去の両方において,教師なしでも事前作業を改善する。
論文 参考訳(メタデータ) (2021-10-12T00:09:07Z) - Real-Time, Deep Synthetic Aperture Sonar (SAS) Autofocus [34.77467193499518]
合成開口ソナー(sas)は、送信/受信波形の正確な飛行時間計測を必要とする。
これを解決するために、画像再構成後の後処理ステップとして、Emphautofocusアルゴリズムを用いて、画像フォーカスを改善する。
これらの限界を克服し、データ駆動方式で重み付け関数を暗黙的に学習するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-18T15:16:29Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - Single-shot autofocusing of microscopy images using deep learning [0.30586855806896046]
Deep-Rと呼ばれるディープラーニングベースのオフラインオートフォーカス手法は、ワンショット顕微鏡画像の高速かつ盲目的にオートフォーカスするように訓練されている。
Deep-Rは、通常のオンラインアルゴリズムのオートフォーカス手法と比較してかなり高速である。
論文 参考訳(メタデータ) (2020-03-21T06:07:27Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。