論文の概要: Differentiable Microscopy Designs an All Optical Quantitative Phase
Microscope
- arxiv url: http://arxiv.org/abs/2203.14944v1
- Date: Mon, 28 Mar 2022 17:53:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 17:16:10.806175
- Title: Differentiable Microscopy Designs an All Optical Quantitative Phase
Microscope
- Title(参考訳): 全光学的定量位相顕微鏡の微分顕微鏡設計
- Authors: Kithmini Herath, Udith Haputhanthri, Ramith Hettiarachchi, Hasindu
Kariyawasam, Azeem Ahmad, Balpreet S. Ahluwalia, Chamira U. S. Edussooriya,
Dushan Wadduwage
- Abstract要約: 微分顕微鏡は深層学習に基づく設計パラダイムである。
計算後再構成を必要としない全光学量位相顕微鏡(QPM)の設計を提案する。
- 参考スコア(独自算出の注目度): 0.7329200485567825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ever since the first microscope by Zacharias Janssen in the late 16th
century, scientists have been inventing new types of microscopes for various
tasks. Inventing a novel architecture demands years, if not decades, worth of
scientific experience and creativity. In this work, we introduce Differentiable
Microscopy ($\partial\mu$), a deep learning-based design paradigm, to aid
scientists design new interpretable microscope architectures. Differentiable
microscopy first models a common physics-based optical system however with
trainable optical elements at key locations on the optical path. Using
pre-acquired data, we then train the model end-to-end for a task of interest.
The learnt design proposal can then be simplified by interpreting the learnt
optical elements. As a first demonstration, based on the optical 4-$f$ system,
we present an all-optical quantitative phase microscope (QPM) design that
requires no computational post-reconstruction. A follow-up literature survey
suggested that the learnt architecture is similar to the generalized phase
concept developed two decades ago. We then incorporate the generalized phase
contrast concept to simplify the learning procedure. Furthermore, this physical
optical setup is miniaturized using a diffractive deep neural network (D2NN).
We outperform the existing benchmark for all-optical phase-to-intensity
conversion on multiple datasets, and ours is the first demonstration of its
kind on D2NNs. The proposed differentiable microscopy framework supplements the
creative process of designing new optical systems and would perhaps lead to
unconventional but better optical designs.
- Abstract(参考訳): 16世紀後半のザカリアス・ヤンセンによる最初の顕微鏡以来、科学者たちは様々なタスクのために新しいタイプの顕微鏡を発明してきた。
新たなアーキテクチャを作るには、何十年も、科学的な経験と創造性が必要になります。
本研究では,深層学習に基づく設計パラダイムである微分顕微鏡(\partial\mu$)を導入し,新しい解釈可能な顕微鏡アーキテクチャの設計を支援する。
微分可能な顕微鏡は、まず一般的な物理ベースの光学系をモデル化するが、トレーニング可能な光学素子は光学経路上の重要な位置にある。
事前に取得したデータを使用して、関心のあるタスクのためにモデルエンドツーエンドをトレーニングします。
学習デザインの提案は、学習した光学要素を解釈することで単純化することができる。
まず,光学式4-$f$システムを用いて,計算後再構成を必要としない全光学的定量的位相顕微鏡(qpm)設計を提案する。
続く文献調査では、学習アーキテクチャは20年前に開発された一般化フェーズの概念と似ていることが示唆された。
次に、一般化位相コントラストの概念を取り入れ、学習手順を簡素化する。
さらに、この物理光学装置は、D2NN(diffractive Deep Neural Network)を用いて小型化される。
我々は、複数のデータセットで全光位相-強度変換を行うための既存のベンチマークを上回り、D2NN上でこの種のデモを初めて行った。
提案された微分可能な顕微鏡フレームワークは、新しい光学系を設計する創造的なプロセスを補完するものであり、おそらくは従来と変わらないがより良い光学設計につながるだろう。
関連論文リスト
- DiscoBAX: Discovery of Optimal Intervention Sets in Genomic Experiment
Design [61.48963555382729]
本研究では,実験1回あたりの有意な発見率を最大化するためのサンプル効率向上手法としてDiscoBAXを提案する。
我々は、標準仮定の下で近似最適性の理論的保証を提供し、包括的な実験評価を行う。
論文 参考訳(メタデータ) (2023-12-07T06:05:39Z) - Quantum light microscopy [0.0]
微生物の理解の進歩の多くは、顕微鏡の進歩に支えられている。
超高分解能顕微鏡は、ほぼ原子スケールの分解能で生物学的構造の観察を可能にする。
多光子顕微鏡は組織への深部イメージングを可能にする。
量子効果は、顕微鏡の性能を高める新しい方法を提供する。
論文 参考訳(メタデータ) (2023-11-10T00:44:58Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - LUCYD: A Feature-Driven Richardson-Lucy Deconvolution Network [0.31402652384742363]
本稿では,ボリューム顕微鏡画像の復元手法であるLUCYDを提案する。
ルーシードはリチャードソン=ルーシーの脱畳み込み公式と、完全な畳み込みネットワークによって得られる深い特徴の融合を組み合わせた。
実験の結果,LUCYDは顕微鏡画像の解像度,コントラスト,全体的な画質を大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-07-16T10:34:23Z) - Multi-domain learning CNN model for microscopy image classification [3.2835754110596236]
顕微鏡画像の分類のためのマルチドメイン学習アーキテクチャを提案する。
計算集約的な従来の方法とは異なり、Mobincepと呼ばれるコンパクトモデルを開発した。
最先端の結果を超え、ラベル付きデータに対して堅牢である。
論文 参考訳(メタデータ) (2023-04-20T19:32:23Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - Combining Attention with Flow for Person Image Synthesis [55.670135403481275]
本稿では,注目操作とフローベース操作を組み合わせた新しいモデルを提案する。
本モデルでは,アテンション操作を利用して正確なターゲット構造を生成するだけでなく,フローベース操作を用いてリアルなソーステクスチャをサンプリングする。
論文 参考訳(メタデータ) (2021-08-04T03:05:39Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Geometrically Matched Multi-source Microscopic Image Synthesis Using
Bidirectional Adversarial Networks [1.3515965758160213]
マルチソース領域から多様な顕微鏡像を合成する革新的なモデルアーキテクチャであるBANISを提案する。
実験結果から、BANISはC. elegansの顕微鏡画像上で良好な画像対を合成できたことが示唆された。
論文 参考訳(メタデータ) (2020-10-26T03:30:59Z) - Physics-enhanced machine learning for virtual fluorescence microscopy [3.7817498232858857]
本稿では, 仮想蛍光顕微鏡のための新しいデータ駆動顕微鏡設計法を提案する。
深層畳み込みニューラルネットワークの第1層に照明のモデルを含めることで、タスク固有のLEDパターンを学ぶことができる。
論文 参考訳(メタデータ) (2020-04-09T00:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。