論文の概要: Recurrent neural network-based volumetric fluorescence microscopy
- arxiv url: http://arxiv.org/abs/2010.10781v1
- Date: Wed, 21 Oct 2020 06:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:43:59.467971
- Title: Recurrent neural network-based volumetric fluorescence microscopy
- Title(参考訳): リカレントニューラルネットワークを用いた体積蛍光顕微鏡
- Authors: Luzhe Huang, Yilin Luo, Yair Rivenson, Aydogan Ozcan
- Abstract要約: 本稿では,標準広視野蛍光顕微鏡でわずかに捉えた2次元画像を用いた深層学習に基づく画像推測フレームワークについて報告する。
再帰的畳み込みニューラルネットワーク(Recurrent-MZ)により、サンプル内のいくつかの軸方向平面からの2次元蛍光情報を明示的に組み込んでサンプル体積をデジタル的に再構成する。
リカレントMZは63xNA対物レンズの被写界深度を約50倍にし、同じサンプル体積を撮像するのに必要となる軸走査数を30倍に削減することを示した。
- 参考スコア(独自算出の注目度): 0.30586855806896046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Volumetric imaging of samples using fluorescence microscopy plays an
important role in various fields including physical, medical and life sciences.
Here we report a deep learning-based volumetric image inference framework that
uses 2D images that are sparsely captured by a standard wide-field fluorescence
microscope at arbitrary axial positions within the sample volume. Through a
recurrent convolutional neural network, which we term as Recurrent-MZ, 2D
fluorescence information from a few axial planes within the sample is
explicitly incorporated to digitally reconstruct the sample volume over an
extended depth-of-field. Using experiments on C. Elegans and nanobead samples,
Recurrent-MZ is demonstrated to increase the depth-of-field of a 63x/1.4NA
objective lens by approximately 50-fold, also providing a 30-fold reduction in
the number of axial scans required to image the same sample volume. We further
illustrated the generalization of this recurrent network for 3D imaging by
showing its resilience to varying imaging conditions, including e.g., different
sequences of input images, covering various axial permutations and unknown
axial positioning errors. Recurrent-MZ demonstrates the first application of
recurrent neural networks in microscopic image reconstruction and provides a
flexible and rapid volumetric imaging framework, overcoming the limitations of
current 3D scanning microscopy tools.
- Abstract(参考訳): 蛍光顕微鏡を用いた試料の体積イメージングは、物理・医学・生命科学など様々な分野で重要な役割を果たしている。
本稿では, 標準広視野蛍光顕微鏡により試料体積内の任意の軸位置で撮影される2次元画像を用いた深層学習に基づく体積像推定フレームワークについて報告する。
再帰的畳み込みニューラルネットワーク(Recurrent-MZ)により、サンプル内のいくつかの軸方向平面からの2次元蛍光情報を明示的に組み込んで、拡張深度でサンプル体積をデジタル的に再構成する。
C. Elegans と nanobead のサンプルを用いて、Recurrent-MZ は、63x/1.4NA 対物レンズの被写界深度を約50倍に向上させ、同じサンプル体積を撮像するのに必要な軸走査数を30倍に削減することを示した。
さらに, 入力画像の異なるシーケンス, 様々な軸方向の順列, 未知の軸方向位置決め誤差など, 様々な画像条件に対する弾力性を示すことにより, この3次元イメージングのためのリカレントネットワークの一般化を示した。
recurrent-mzは、顕微鏡画像再構成におけるリカレントニューラルネットワークの最初の応用を実証し、現在の3d走査型顕微鏡ツールの限界を克服するフレキシブルで迅速な体積イメージングフレームワークを提供する。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Fast light-field 3D microscopy with out-of-distribution detection and
adaptation through Conditional Normalizing Flows [16.928404625892625]
リアルタイム3次元蛍光顕微鏡は生物の分析に不可欠である。
そこで我々は,生きた固定化ゼブラフィッシュ神経活動の高速な3次元再構成を行う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-10T10:42:49Z) - Computational 3D topographic microscopy from terabytes of data per
sample [2.4657541547959387]
我々は6ギガピクセルのプロファイログラフィー3Dイメージングをミクロンスケールの解像度で行うことができる大規模3Dトポグラフィー顕微鏡を提案する。
我々は、オールインフォーカス光度合成と3次元高さマップを共同で推定する3次元再構成と縫合のための自己教師型ニューラルネットワークベースのアルゴリズムを開発した。
計算顕微鏡の汎用性を実証するため,STARCAMを様々なデシメータスケールの物体に適用した。
論文 参考訳(メタデータ) (2023-06-05T07:09:21Z) - Low dosage 3D volume fluorescence microscopy imaging using compressive
sensing [0.0]
本稿では, 圧縮センシングによる3Dボリュームの完全再構成を, 励起量の半分未満のSNRで行う方法を提案する。
ゼブラフィッシュ胚脊髄のRFP標識ニューロンの3次元体積を, 共焦点顕微鏡を用いて0.1umの軸方向サンプリングにより計測し, 本手法の実証を行った。
この研究で開発されたCSベースの手法は、2光子や光シート顕微鏡などの他の深部イメージングに容易に適用でき、サンプル光毒性の低減は重要な課題である。
論文 参考訳(メタデータ) (2022-01-03T18:44:50Z) - Deep learning of multi-resolution X-Ray micro-CT images for multi-scale
modelling [0.0]
本研究では3次元拡張深部超解像(EDSR)畳み込みニューラルネットワークを開発し,大規模空間スケールで高分解能データを生成する。
我々は,テキスト解析,セグメンテーション動作,多相流シミュレーション(PNM)を用いてネットワークを検証した。
EDSR生成モデルは、不均一性の存在下での実験挙動を予測するための基礎LRモデルよりも精度が高い。
論文 参考訳(メタデータ) (2021-11-01T21:49:22Z) - 3D Reconstruction of Curvilinear Structures with Stereo Matching
DeepConvolutional Neural Networks [52.710012864395246]
本稿では,立体対における曲線構造の検出とマッチングのための完全自動パイプラインを提案する。
主に、TEM画像のステレオ対から転位を3次元再構成することに焦点を当てる。
論文 参考訳(メタデータ) (2021-10-14T23:05:47Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Programmable 3D snapshot microscopy with Fourier convolutional networks [3.2156268397508314]
3Dスナップショット顕微鏡は、単一の2Dカメラ画像で3Dボリュームをキャプチャすることにより、カメラと同じくらい高速なボリュームイメージングを可能にします。
3Dスナップショット画像にエンコードされたグローバル混合情報を効率的に統合できるグローバルカーネルフーリエ畳み込みニューラルネットワークのクラスを紹介します。
論文 参考訳(メタデータ) (2021-04-21T16:09:56Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z) - Multifold Acceleration of Diffusion MRI via Slice-Interleaved Diffusion
Encoding (SIDE) [50.65891535040752]
本稿では,Slice-Interleaved Diffusionと呼ばれる拡散符号化方式を提案する。
SIDEは、拡散重み付き(DW)画像ボリュームを異なる拡散勾配で符号化したスライスでインターリーブする。
また,高いスライスアンサンプデータからDW画像を効果的に再構成するためのディープラーニングに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-02-25T14:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。