論文の概要: Deep learning EPI-TIRF cross-modality enables background subtraction and axial super-resolution for widefield fluorescence microscopy
- arxiv url: http://arxiv.org/abs/2511.06853v1
- Date: Mon, 10 Nov 2025 08:52:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.171021
- Title: Deep learning EPI-TIRF cross-modality enables background subtraction and axial super-resolution for widefield fluorescence microscopy
- Title(参考訳): 深層学習型EPI-TIRFクロスモダリティは広視野蛍光顕微鏡の背景サブトラクションと軸超解像を可能にする
- Authors: Qiushi Li, Celi Lou, Yanfang Cheng, Bilang Gong, Xinlin Chen, Hao Chen, Baowan Li, Jieli Wang, Yulin Wang, Sipeng Yang, Yunqing Tang, Luru Dai,
- Abstract要約: 深層学習に基づくEPI-TIRFクロスモダリティネットワークET2dNetを開発し,TIRF対応のバックグラウンドサブトラクションと軸超解像を実現する。
また,成果物を再現する専用3次元再構成ネットワークET3dNetを開発した。
- 参考スコア(独自算出の注目度): 22.180941479385755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The resolving ability of wide-field fluorescence microscopy is fundamentally limited by out-of-focus background owing to its low axial resolution, particularly for densely labeled biological samples. To address this, we developed ET2dNet, a deep learning-based EPI-TIRF cross-modality network that achieves TIRF-comparable background subtraction and axial super-resolution from a single wide-field image without requiring hardware modifications. The model employs a physics-informed hybrid architecture, synergizing supervised learning with registered EPI-TIRF image pairs and self-supervised physical modeling via convolution with the point spread function. This framework ensures exceptional generalization across microscope objectives, enabling few-shot adaptation to new imaging setups. Rigorous validation on cellular and tissue samples confirms ET2dNet's superiority in background suppression and axial resolution enhancement, while maintaining compatibility with deconvolution techniques for lateral resolution improvement. Furthermore, by extending this paradigm through knowledge distillation, we developed ET3dNet, a dedicated three-dimensional reconstruction network that produces artifact-reduced volumetric results. ET3dNet effectively removes out-of-focus background signals even when the input image stack lacks the source of background. This framework makes axial super-resolution imaging more accessible by providing an easy-to-deploy algorithm that avoids additional hardware costs and complexity, showing great potential for live cell studies and clinical histopathology.
- Abstract(参考訳): 広視野蛍光顕微鏡の分解能は、その低軸分解能、特に濃密にラベル付けされた生物学的試料のため、基本的に焦点外背景によって制限される。
そこで我々は,深層学習に基づくEPI-TIRFクロスモダリティネットワークET2dNetを開発し,ハードウェア修正を必要とせず,単一の広視野画像からTIRF対応のバックグラウンドサブトラクションと軸超解像を実現する。
このモデルは物理インフォームドハイブリッドアーキテクチャを使用し、登録されたEPI-TIRFイメージペアと教師付き学習を相乗化し、ポイントスプレッド関数との畳み込みによる自己教師付き物理モデリングを行う。
このフレームワークは、顕微鏡の目的にまたがる例外的な一般化を保証し、新しい撮像装置への数発の適応を可能にする。
細胞および組織サンプルの厳密な検証は、ET2dNetの背景抑制および軸方向分解能向上における優位性を確認し、一方、側方分解能改善のための非畳み込み技術との互換性を維持している。
さらに, このパラダイムを知識蒸留により拡張することにより, 人工的に再現された体積結果を生成する専用3次元再構成ネットワークET3dNetを開発した。
ET3dNetは、入力画像スタックがバックグラウンドのソースを欠いている場合でも、アウト・オブ・フォーカスのバックグラウンド信号を効果的に除去する。
このフレームワークは、ハードウェアコストと複雑さの増大を回避し、生きた細胞研究と臨床病理学に大きな可能性を示す、容易に展開できるアルゴリズムを提供することにより、軸方向の超解像イメージングをよりアクセスしやすくする。
関連論文リスト
- Biology-driven assessment of deep learning super-resolution imaging of the porosity network in dentin [3.6401695744986866]
歯のメカノセンスシステムは、象牙質を介して伸びる多孔性ネットワークを流れる流体による象牙芽細胞細胞刺激に部分的に依存していると考えられている。
最小のサブ顕微鏡ポロシティ容器を可視化するには、共焦点蛍光顕微鏡による最も高い分解能が必要である。
我々は、低解像度画像の高速な取得と、後処理による最適な画像品質の回復を可能にするために、異なる深層学習(DL)超解像(SR)モデルを試験した。
論文 参考訳(メタデータ) (2025-10-09T16:26:38Z) - Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - Rotation Equivariant Arbitrary-scale Image Super-Resolution [62.41329042683779]
任意のスケールの超解像(ASISR)は、低解像度の入力画像から任意のスケールの高分解能回復を実現することを目的としている。
本研究では, 回転同変ASISR法の構築に尽力する。
論文 参考訳(メタデータ) (2025-08-07T08:51:03Z) - Self-Supervised Z-Slice Augmentation for 3D Bio-Imaging via Knowledge Distillation [65.46249968484794]
ZAugNetは、生物画像のz分解能を高めるための高速で正確で自己教師型のディープラーニング手法である。
連続スライス間の非線形距離を実行することで、ZAugNetは各イテレーションで分解能を効果的に倍にする。
ZAugNet+は任意の距離で連続的な予測を可能にする拡張版である。
論文 参考訳(メタデータ) (2025-03-05T17:50:35Z) - DiffuseIR:Diffusion Models For Isotropic Reconstruction of 3D
Microscopic Images [20.49786054144047]
拡散モデルに基づく等方的再構成の教師なし手法であるDiffuseIRを提案する。
まず,側方顕微鏡画像から生体組織の構造分布を学習するために,拡散モデルの事前学習を行う。
次に、低軸分解能顕微鏡画像を用いて拡散モデルの生成過程を定式化し、高軸分解能再構成結果を生成する。
論文 参考訳(メタデータ) (2023-06-21T08:49:28Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Super-resolution reconstruction of cytoskeleton image based on A-net
deep learning network [7.967593061012609]
我々はA-netネットワークを提案し,分解モデルに基づくA-netディープラーニングネットワークとDWDCアルゴリズムを組み合わせることにより,サイトスケルトン画像の分解能を大幅に向上できることを示した。
生画像中の細胞構造を阻害するノイズや凝集構造を除去し,比較的小さなデータセットを用いて空間分解能を10倍改善した。
論文 参考訳(メタデータ) (2021-12-17T15:33:47Z) - Axial-to-lateral super-resolution for 3D fluorescence microscopy using
unsupervised deep learning [19.515134844947717]
本論文では、蛍光顕微鏡における異方性画像強化のための深層学習可能な非教師付きスーパーレゾリューション技術を提案する。
ネットワークのトレーニングには1枚の3D画像スタックしか必要としないため,本手法は実践の労力を大幅に削減する。
訓練されたネットワークは、回折限界を超える軸分解能を高めるだけでなく、イメージングプレーン間の視覚的詳細の抑制とイメージングアーティファクトの除去も行うことを実証します。
論文 参考訳(メタデータ) (2021-04-19T16:31:12Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。