論文の概要: Deep learning-based holographic polarization microscopy
- arxiv url: http://arxiv.org/abs/2007.00741v1
- Date: Wed, 1 Jul 2020 20:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:56:03.565173
- Title: Deep learning-based holographic polarization microscopy
- Title(参考訳): 深層学習に基づくホログラフィック偏光顕微鏡
- Authors: Tairan Liu, Kevin de Haan, Bijie Bai, Yair Rivenson, Yi Luo, Hongda
Wang, David Karalli, Hongxiang Fu, Yibo Zhang, John FitzGerald, and Aydogan
Ozcan
- Abstract要約: 深層学習に基づくホログラフィック偏光顕微鏡を提案する。
検体の量的複屈折耐性及び配向情報を得ることができる。
- 参考スコア(独自算出の注目度): 6.382502799134221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Polarized light microscopy provides high contrast to birefringent specimen
and is widely used as a diagnostic tool in pathology. However, polarization
microscopy systems typically operate by analyzing images collected from two or
more light paths in different states of polarization, which lead to relatively
complex optical designs, high system costs or experienced technicians being
required. Here, we present a deep learning-based holographic polarization
microscope that is capable of obtaining quantitative birefringence retardance
and orientation information of specimen from a phase recovered hologram, while
only requiring the addition of one polarizer/analyzer pair to an existing
holographic imaging system. Using a deep neural network, the reconstructed
holographic images from a single state of polarization can be transformed into
images equivalent to those captured using a single-shot computational polarized
light microscope (SCPLM). Our analysis shows that a trained deep neural network
can extract the birefringence information using both the sample specific
morphological features as well as the holographic amplitude and phase
distribution. To demonstrate the efficacy of this method, we tested it by
imaging various birefringent samples including e.g., monosodium urate (MSU) and
triamcinolone acetonide (TCA) crystals. Our method achieves similar results to
SCPLM both qualitatively and quantitatively, and due to its simpler optical
design and significantly larger field-of-view, this method has the potential to
expand the access to polarization microscopy and its use for medical diagnosis
in resource limited settings.
- Abstract(参考訳): 偏光顕微鏡は複屈折標本と高いコントラストを持ち、病理診断の手段として広く用いられている。
しかし、偏光顕微鏡システムは通常、2つ以上の光路から集められた画像を異なる偏光状態で分析することで動作し、比較的複雑な光学設計、高いシステムコスト、経験豊富な技術者が必要となる。
本稿では, 位相回復ホログラムから試料の定量的複屈折残差と配向情報を得られる深層学習型ホログラフィ偏光顕微鏡について, 既存のホログラフィイメージングシステムに1対の偏光器/アナライザーペアを追加するだけでよいことを示す。
深層ニューラルネットワークを用いて、単一の偏光状態から再構成されたホログラフィック画像を、単発計算偏光顕微鏡(scplm)で撮影した画像と等価な画像に変換することができる。
本分析により,訓練された深部ニューラルネットワークは,ホログラフィック振幅および位相分布だけでなく,サンプル特異な形態特徴を用いて複屈折情報を抽出できることがわかった。
本法の有効性を実証するために, モノゾジウムウレート (MSU) やトリアムシノロンアセトニド (TCA) 結晶などの種々の複屈折性試料を撮像し, 実験を行った。
本手法は, 定性的かつ定量的にscplmと類似した結果を得ることができ, 光学設計がシンプルで視野が大きく, 偏光顕微鏡へのアクセスが拡大する可能性があり, 限られた資源条件下での医療診断への応用が期待できる。
関連論文リスト
- Diffusion-driven lensless fiber endomicroscopic quantitative phase imaging towards digital pathology [45.4057289850892]
マルチコアファイバ(MCF)の検出側で捕獲されたスペックルから直接位相像を再構成するためのスペックル条件拡散モデル(SpecDiffusion)を提案する。
従来のニューラルネットワークとは異なり、SpecDiffusionはスペックル駆動の位相再構成に反復的な位相分解ステップを採用している。
SpecDiffusionは高忠実度位相再構成結果を提供し、見えない物体に対して強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-07-26T01:42:31Z) - Spatial super-resolution in nanosensing with blinking emitters [79.16635054977068]
本稿では, 点滅型蛍光ナノセンサを用いたメロロジーにおける空間分解能向上手法を提案する。
我々は, 生活科学分野において, 画像解析技術に補完される点滅蛍光センシング剤を日常的に活用できると考えている。
論文 参考訳(メタデータ) (2024-02-27T10:38:05Z) - Probing polarization response of monolayer cell cultures with photon
entanglement [0.24091079613649835]
標本の形態を評価する際に、しばしば強度変調よりも優れている偏光に基づくプローブについて検討する。
本稿では,光子対を用いた単層細胞培養の高感度探索法を提案する。
論文 参考訳(メタデータ) (2024-01-19T16:21:50Z) - Deep Learning Enables Large Depth-of-Field Images for
Sub-Diffraction-Limit Scanning Superlens Microscopy [16.152554659134246]
深層学習を用いて、光学超解像(OSR)画像と走査電子顕微鏡領域画像とのマッピング関係を得る。
提案手法は, チップレベルの欠陥検出, 生物学的試料分析, 法医学, その他の様々な分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-27T09:16:56Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Retrieving space-dependent polarization transformations via near-optimal
quantum process tomography [55.41644538483948]
トモグラフィー問題に対する遺伝的および機械学習アプローチの適用について検討する。
ニューラルネットワークベースのスキームは、リアルタイムにキャラクタリゼーションを必要とするアプリケーションにおいて、重要なスピードアップを提供する。
これらの結果は、より一般的な量子プロセスにおけるトモグラフィーアプローチの最適化の基礎となることを期待する。
論文 参考訳(メタデータ) (2022-10-27T11:37:14Z) - Tensorial tomographic differential phase-contrast microscopy [14.650158000199932]
T2DPCは、定量的位相イメージング技術である差位相コントラスト顕微鏡を拡張し、光のベクトル特性を強調する。
本研究では, 屈折率, 複屈折率, 配向の高精度な体積再構成を行い, 生体試料の再構成された偏光構造が病理学的に予測可能であることを示す。
論文 参考訳(メタデータ) (2022-04-25T02:11:29Z) - Computational ghost imaging for transmission electron microscopy [4.8776835876287805]
本研究では,電子顕微鏡におけるゴーストイメージングの計算手法を用いて,必要な総強度の低減を図っている。
電子に対する同等の高分解能光空間光変調器の技術的欠如は、異なるアプローチを追求する必要があることを意味する。
電気的に帯電した金属針の分布をビーム構造に利用したビーム整形技術と、その結果の非直交パターンを扱う新しい再構成手法について述べる。
論文 参考訳(メタデータ) (2022-04-21T09:43:54Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - Hyperspectral-Multispectral Image Fusion with Weighted LASSO [68.04032419397677]
本稿では,高スペクトル像と多スペクトル像を融合させて高画質な高スペクトル出力を実現する手法を提案する。
提案したスパース融合と再構成は,既存の公開画像の手法と比較して,定量的に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-03-15T23:07:56Z) - Improved Spectral Imaging Microscopy for Cultural Heritage through
Oblique Illumination [0.9939631917378883]
顕微鏡光源は、2つの軸で調整でき、照明方向の半球が可能である。
空間分解能の高い分光反射画像の抽出は、既知の絵画基準資料から作成したレプリカ断面と、パブロ・ピカソによる絵画から抽出されたサンプル『La Mis'ereuse accroupie』(1902年)の分析を通して実証される。
これらのケーススタディは、この顕微鏡を用いて得られるかもしれない豊富なマイクロスケールの分子情報と、無機鉱物と有機湖の両方からなる複雑なマトリックスを持つ芸術作品でよく見られるスペクトル分析の課題を克服する方法を示している。
論文 参考訳(メタデータ) (2020-01-01T17:00:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。