論文の概要: Axial-to-lateral super-resolution for 3D fluorescence microscopy using
unsupervised deep learning
- arxiv url: http://arxiv.org/abs/2104.09435v1
- Date: Mon, 19 Apr 2021 16:31:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:50:24.186389
- Title: Axial-to-lateral super-resolution for 3D fluorescence microscopy using
unsupervised deep learning
- Title(参考訳): 教師なし深層学習を用いた3次元蛍光顕微鏡の軸方向超解像
- Authors: Hyoungjun Park, Myeongsu Na, Bumju Kim, Soohyun Park, Ki Hean Kim,
Sunghoe Chang, and Jong Chul Ye
- Abstract要約: 本論文では、蛍光顕微鏡における異方性画像強化のための深層学習可能な非教師付きスーパーレゾリューション技術を提案する。
ネットワークのトレーニングには1枚の3D画像スタックしか必要としないため,本手法は実践の労力を大幅に削減する。
訓練されたネットワークは、回折限界を超える軸分解能を高めるだけでなく、イメージングプレーン間の視覚的詳細の抑制とイメージングアーティファクトの除去も行うことを実証します。
- 参考スコア(独自算出の注目度): 19.515134844947717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Volumetric imaging by fluorescence microscopy is often limited by anisotropic
spatial resolution from inferior axial resolution compared to the lateral
resolution. To address this problem, here we present a deep-learning-enabled
unsupervised super-resolution technique that enhances anisotropic images in
volumetric fluorescence microscopy. In contrast to the existing deep learning
approaches that require matched high-resolution target volume images, our
method greatly reduces the effort to put into practice as the training of a
network requires as little as a single 3D image stack, without a priori
knowledge of the image formation process, registration of training data, or
separate acquisition of target data. This is achieved based on the optimal
transport driven cycle-consistent generative adversarial network that learns
from an unpaired matching between high-resolution 2D images in lateral image
plane and low-resolution 2D images in the other planes. Using fluorescence
confocal microscopy and light-sheet microscopy, we demonstrate that the trained
network not only enhances axial resolution beyond the diffraction limit, but
also enhances suppressed visual details between the imaging planes and removes
imaging artifacts.
- Abstract(参考訳): 蛍光顕微鏡による体積イメージングは、横分解能と比較して下方軸分解能からの異方性空間分解能によってしばしば制限される。
この問題に対処するため,本研究では,ボリューム蛍光顕微鏡における異方性画像の強調を行う,ディープラーニング対応の非教師なし超解像技術を提案する。
高分解能のターゲットボリューム画像を必要とする既存のディープラーニングのアプローチとは対照的に、ネットワークのトレーニングでは画像形成プロセスの事前知識やトレーニングデータの登録、ターゲットデータの分離といった知識を必要とせず、単一の3dイメージスタックしか必要とせず、実践の労力を大幅に削減する。
これは、横方向画像平面における高解像度2D画像と他の平面における低解像度2D画像との未ペアマッチングから学習する最適な輸送駆動サイクル一貫性生成対向ネットワークに基づいて達成される。
蛍光共焦点顕微鏡と光シート顕微鏡を用いて, 訓練したネットワークは回折限界を超える軸分解能を増大させるだけでなく, 撮像面間の視覚詳細の抑制や画像アーティファクトの除去にも寄与することを示した。
関連論文リスト
- Tsang's resolution enhancement method for imaging with focused illumination [42.41481706562645]
いずれの方法よりも優れた横方向分解能と画像品質を実験的に示す。
この結果は、空間分解を既存の顕微鏡に統合する方法を舗装する。
論文 参考訳(メタデータ) (2024-05-31T16:25:05Z) - Super-resolution of biomedical volumes with 2D supervision [84.5255884646906]
超解像のための仮設スライス拡散は、生物学的標本のすべての空間次元にわたるデータ生成分布の固有同値性を利用する。
我々は,高解像度2次元画像の高速取得を特徴とするSliceRの組織学的刺激(SRH)への応用に着目する。
論文 参考訳(メタデータ) (2024-04-15T02:41:55Z) - DiffuseIR:Diffusion Models For Isotropic Reconstruction of 3D
Microscopic Images [20.49786054144047]
拡散モデルに基づく等方的再構成の教師なし手法であるDiffuseIRを提案する。
まず,側方顕微鏡画像から生体組織の構造分布を学習するために,拡散モデルの事前学習を行う。
次に、低軸分解能顕微鏡画像を用いて拡散モデルの生成過程を定式化し、高軸分解能再構成結果を生成する。
論文 参考訳(メタデータ) (2023-06-21T08:49:28Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - Two-Photon Interference LiDAR Imaging [0.0]
我々は、高レベルの安定性を必要とせず、OCT深度分解能を実現するLiDARに量子干渉にインスパイアされたアプローチを提案する。
我々は,70mの効果的なインパルス応答で深度イメージング機能を示す。これにより,従来のLiDAR手法よりも高分解能で範囲と多重反射を識別できる。
この強化された解像度は、3D顔認証におけるLiDARの道を開くとともに、小さな特徴の検出/追跡に加えて、障害物を通した画像や非視線イメージングのようなより複雑な飛行時間法の性能を高める。
論文 参考訳(メタデータ) (2022-06-20T09:08:51Z) - Low dosage 3D volume fluorescence microscopy imaging using compressive
sensing [0.0]
本稿では, 圧縮センシングによる3Dボリュームの完全再構成を, 励起量の半分未満のSNRで行う方法を提案する。
ゼブラフィッシュ胚脊髄のRFP標識ニューロンの3次元体積を, 共焦点顕微鏡を用いて0.1umの軸方向サンプリングにより計測し, 本手法の実証を行った。
この研究で開発されたCSベースの手法は、2光子や光シート顕微鏡などの他の深部イメージングに容易に適用でき、サンプル光毒性の低減は重要な課題である。
論文 参考訳(メタデータ) (2022-01-03T18:44:50Z) - 3D Human Pose, Shape and Texture from Low-Resolution Images and Videos [107.36352212367179]
本稿では,解像度認識ネットワーク,自己スーパービジョン損失,コントラスト学習スキームからなるrsc-netを提案する。
提案手法は1つのモデルで異なる解像度で3次元物体のポーズと形状を学習できる。
低解像度映像を扱うRSC-Netを拡張し、低解像度入力からテクスチャ化された3D歩行者の再構築に適用します。
論文 参考訳(メタデータ) (2021-03-11T06:52:12Z) - Deep learning-based super-resolution fluorescence microscopy on small
datasets [20.349746411933495]
ディープラーニングは、技術的障壁を減らし、回折制限画像から超解像を得る可能性を示している。
本稿では,小型データセットと超解像画像の訓練を成功させた畳み込みニューラルネットワークに基づく新しいアプローチを示す。
このモデルは、大規模なトレーニングデータセットの取得が困難なMRIやX線イメージングなどの他のバイオメディカルイメージングモードに適用することができます。
論文 参考訳(メタデータ) (2021-03-07T03:17:47Z) - 3D Human Shape and Pose from a Single Low-Resolution Image with
Self-Supervised Learning [105.49950571267715]
3次元人物形状とポーズ推定のための既存のディープラーニング手法は、比較的高解像度な入力画像に依存している。
本稿では,レゾリューション・アウェア・ネットワーク,セルフ・スーパービジョン・ロス,コントラッシブ・ラーニング・スキームからなるRCC-Netを提案する。
これら2つの新たなトレーニング損失は,3次元形状を学習し,弱教師ありの姿勢を示す。
論文 参考訳(メタデータ) (2020-07-27T16:19:52Z) - Correlation Plenoptic Imaging between Arbitrary Planes [52.77024349608834]
提案プロトコルは,処理後の集中面の変更を可能にし,画像解像度と被写界深度を前例のない組み合わせで実現可能であることを示す。
その結果、カオス光に基づく相関レンズ画像装置のコンパクト化や、絡み合った光子照明に基づく高SNRレンズ画像装置の開発への道が開かれた。
論文 参考訳(メタデータ) (2020-07-23T14:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。