論文の概要: Reconstruct high-resolution multi-focal plane images from a single 2D
wide field image
- arxiv url: http://arxiv.org/abs/2009.09574v1
- Date: Mon, 21 Sep 2020 02:09:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:36:26.850706
- Title: Reconstruct high-resolution multi-focal plane images from a single 2D
wide field image
- Title(参考訳): 2次元広視野画像からの高分解能多焦点平面画像の再構成
- Authors: Jiabo Ma, Sibo Liu, Shenghua Cheng, Xiuli Liu, Li Cheng, Shaoqun Zeng
- Abstract要約: 高速エンドツーエンド多焦点平面イメージングネットワーク(INet)を提案する。
INetはスキャンに頼ることなく、1つの2次元の低解像度の野生画像から高解像度の多焦点平面像を再構成する。
提案手法は,高分解能3次元画像の速度を大幅に向上させ,低分解能広視野画像の適用を拡大する可能性を秘めている。
- 参考スコア(独自算出の注目度): 6.487128690752122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-resolution 3D medical images are important for analysis and diagnosis,
but axial scanning to acquire them is very time-consuming. In this paper, we
propose a fast end-to-end multi-focal plane imaging network (MFPINet) to
reconstruct high-resolution multi-focal plane images from a single 2D
low-resolution wild filed image without relying on scanning. To acquire
realistic MFP images fast, the proposed MFPINet adopts generative adversarial
network framework and the strategies of post-sampling and refocusing all focal
planes at one time. We conduct a series experiments on cytology microscopy
images and demonstrate that MFPINet performs well on both axial refocusing and
horizontal super resolution. Furthermore, MFPINet is approximately 24 times
faster than current refocusing methods for reconstructing the same volume
images. The proposed method has the potential to greatly increase the speed of
high-resolution 3D imaging and expand the application of low-resolution
wide-field images.
- Abstract(参考訳): 高分解能な3次元医用画像は解析と診断に重要であるが、それらを取得するための軸走査は非常に時間がかかる。
本稿では,高分解能な多焦点平面像をスキャンに頼ることなく,高分解能な多焦点平面画像から再構成する高速エンドツーエンド多焦点平面イメージングネットワーク (MFPINet) を提案する。
現実的なmfp画像の取得を高速に行うため,提案手法では,生成型逆ネットワークフレームワークと,全焦点平面のポストサンプリングおよび再フォーカス戦略を採用している。
我々は細胞診顕微鏡画像の一連の実験を行い、MFPINetが軸方向再焦点と水平方向の超解像の両方で良好に動作することを示した。
さらに、MFPINetは、同じボリュームイメージを再構築する現在の再焦点法よりも約24倍高速である。
提案手法は,高分解能3次元画像の高速化と,低分解能広視野画像の適用範囲を拡大する可能性を秘めている。
関連論文リスト
- From Diffusion to Resolution: Leveraging 2D Diffusion Models for 3D Super-Resolution Task [19.56372155146739]
本稿では,3次元電子顕微鏡(vEM)の超解像性を高めるために,2次元拡散モデルと体積内の横方向の連続性を利用する新しい手法を提案する。
イオンビーム走査型電子顕微鏡(FIB-SEM)の2つのデータを用いて,本フレームワークのロバスト性と実用性を示した。
論文 参考訳(メタデータ) (2024-11-25T09:12:55Z) - Super-resolution of biomedical volumes with 2D supervision [84.5255884646906]
超解像のための仮設スライス拡散は、生物学的標本のすべての空間次元にわたるデータ生成分布の固有同値性を利用する。
我々は,高解像度2次元画像の高速取得を特徴とするSliceRの組織学的刺激(SRH)への応用に着目する。
論文 参考訳(メタデータ) (2024-04-15T02:41:55Z) - Wonder3D: Single Image to 3D using Cross-Domain Diffusion [105.16622018766236]
Wonder3Dは、単一視点画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である。
画像から3Dまでのタスクの品質,一貫性,効率性を総括的に改善するため,領域間拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-10-23T15:02:23Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - Deep Factor Model: A Novel Approach for Motion Compensated
Multi-Dimensional MRI [17.78406225721058]
本稿では、マルチコントラスト画像時系列の効率的な表現を提供するDeep Factor Modelと呼ばれる新しい手法を提案する。
このアプローチは、運動推定と補償を統合し、スキャン中の被写体の動きに対して頑健なアプローチとなる。
論文 参考訳(メタデータ) (2023-03-31T19:54:44Z) - SuperMask: Generating High-resolution object masks from multi-view,
unaligned low-resolution MRIs [0.8074019565026543]
高分解能等方性MRIはまれであり、典型的なMRIは異方性であり、外面次元ははるかに低解像度である。
複数の低解像度画像から高解像度マスクを生成するための弱教師付きディープラーニングベースのソリューションを提案する。
論文 参考訳(メタデータ) (2023-03-13T23:09:51Z) - eFIN: Enhanced Fourier Imager Network for generalizable autofocusing and
pixel super-resolution in holographic imaging [0.30586855806896046]
深層ニューラルネットワーク「拡張フーリエイメージネットワーク(eFIN)」を画素超解像と画像オートフォーカスによるホログラム再構成のためのフレームワークとして導入する。
eFINは画像再構成の質が優れており、トレーニング段階では見られない新しいタイプのサンプルに対して外部の一般化を示す。
eFINは3xピクセル超解像度イメージングを可能にし、再構成画像の空間帯域幅積をほぼ性能損失なく9倍に向上させる。
論文 参考訳(メタデータ) (2023-01-09T04:12:10Z) - Axial-to-lateral super-resolution for 3D fluorescence microscopy using
unsupervised deep learning [19.515134844947717]
本論文では、蛍光顕微鏡における異方性画像強化のための深層学習可能な非教師付きスーパーレゾリューション技術を提案する。
ネットワークのトレーニングには1枚の3D画像スタックしか必要としないため,本手法は実践の労力を大幅に削減する。
訓練されたネットワークは、回折限界を超える軸分解能を高めるだけでなく、イメージングプレーン間の視覚的詳細の抑制とイメージングアーティファクトの除去も行うことを実証します。
論文 参考訳(メタデータ) (2021-04-19T16:31:12Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z) - Hyperspectral-Multispectral Image Fusion with Weighted LASSO [68.04032419397677]
本稿では,高スペクトル像と多スペクトル像を融合させて高画質な高スペクトル出力を実現する手法を提案する。
提案したスパース融合と再構成は,既存の公開画像の手法と比較して,定量的に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-03-15T23:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。