論文の概要: BigFUSE: Global Context-Aware Image Fusion in Dual-View Light-Sheet
Fluorescence Microscopy with Image Formation Prior
- arxiv url: http://arxiv.org/abs/2309.01865v1
- Date: Tue, 5 Sep 2023 00:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 16:52:04.420789
- Title: BigFUSE: Global Context-Aware Image Fusion in Dual-View Light-Sheet
Fluorescence Microscopy with Image Formation Prior
- Title(参考訳): BigFUSE:デュアルビュー光シート蛍光顕微鏡における画像形成前の地球環境対応画像融合
- Authors: Yu Liu, Gesine Muller, Nassir Navab, Carsten Marr, Jan Huisken,
Tingying Peng
- Abstract要約: 光シート蛍光顕微鏡(LSFM)における画像融合を安定化する大域的文脈認識画像フィルタBigFUSEを提案する。
デュアルビューLSFMに先立つ画像形成にインスパイアされた画像融合は、ベイズ理論を用いて焦点差境界を推定すると考えられる。
比較実験の結果,BigFUSEは情報を融合する際に構造化されたアーティファクトを排除できる最初のデュアルビューLSFMファサーであることがわかった。
- 参考スコア(独自算出の注目度): 40.22867974147714
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Light-sheet fluorescence microscopy (LSFM), a planar illumination technique
that enables high-resolution imaging of samples, experiences defocused image
quality caused by light scattering when photons propagate through thick
tissues. To circumvent this issue, dualview imaging is helpful. It allows
various sections of the specimen to be scanned ideally by viewing the sample
from opposing orientations. Recent image fusion approaches can then be applied
to determine in-focus pixels by comparing image qualities of two views locally
and thus yield spatially inconsistent focus measures due to their limited
field-of-view. Here, we propose BigFUSE, a global context-aware image fuser
that stabilizes image fusion in LSFM by considering the global impact of photon
propagation in the specimen while determining focus-defocus based on local
image qualities. Inspired by the image formation prior in dual-view LSFM, image
fusion is considered as estimating a focus-defocus boundary using Bayes
Theorem, where (i) the effect of light scattering onto focus measures is
included within Likelihood; and (ii) the spatial consistency regarding
focus-defocus is imposed in Prior. The expectation-maximum algorithm is then
adopted to estimate the focus-defocus boundary. Competitive experimental
results show that BigFUSE is the first dual-view LSFM fuser that is able to
exclude structured artifacts when fusing information, highlighting its
abilities of automatic image fusion.
- Abstract(参考訳): 光シート蛍光顕微鏡(lsfm、light-sheet fluorescence microscope)は、試料の高分解能イメージングを可能にする平面照明技術で、光子が厚い組織を透過する際に光散乱によって生じる画質の低下を経験する。
この問題を回避するため、デュアルビューイメージングは有用である。
反対方向からサンプルを見ることで、標本の様々な部分を理想的にスキャンすることができる。
次に,最近の画像融合手法を適用し,局所的に2つのビューの画質を比較して焦点内画素を決定することで,視野の制限による空間的不整合度を計測する。
本稿では,局所的な画像品質に基づいて焦点差を判定しながら,試料中の光子伝播のグローバルな影響を考慮し,LSFMにおける画像融合を安定化する,大域的文脈認識画像フィルタBigFUSEを提案する。
デュアルビューLSFMに先立つ画像形成にインスパイアされた画像融合は、ベイズ理論を用いた焦点差境界の推定と見なされる。
(i)焦点測度に対する光散乱の影響は、その可能性に含まれている。
(ii)フォーカスデフォーカスに関する空間的一貫性を予め課す。
次に、期待最大アルゴリズムを用いてフォーカス・デフォーカス境界を推定する。
比較実験の結果,BigFUSEは情報融合時に構造化されたアーティファクトを排除できる最初のデュアルビューLSFMフィルタであり,自動画像融合の能力を強調している。
関連論文リスト
- A Dual Domain Multi-exposure Image Fusion Network based on the
Spatial-Frequency Integration [57.14745782076976]
マルチ露光画像融合は、異なる露光で画像を統合することにより、単一の高ダイナミック画像を生成することを目的としている。
本稿では,MEF-SFI と呼ばれる空間周波数統合フレームワークによるマルチ露光画像融合の新たな視点を提案する。
提案手法は,最先端のマルチ露光画像融合手法に対する視覚的近似核融合結果を実現する。
論文 参考訳(メタデータ) (2023-12-17T04:45:15Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - Learning to Deblur using Light Field Generated and Real Defocus Images [4.926805108788465]
デフォーカス・デブロワーリングは、デフォーカス・ボケの性質が空間的に変化するため、困難な作業である。
本稿では,光の強度を活用し,光源の欠点を克服する新しいディープデフォーカス・デブロアリング・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T11:35:51Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - Towards Reducing Severe Defocus Spread Effects for Multi-Focus Image
Fusion via an Optimization Based Strategy [22.29205225281694]
マルチフォーカス画像融合(MFF)はオールインフォーカス画像を生成する一般的な技術である。
本稿では,デフォーカス拡散効果を低減するための最適化手法を提案する。
実世界データセット上で行った実験は,提案モデルの優位性を検証した。
論文 参考訳(メタデータ) (2020-12-29T09:26:41Z) - Spatially-Variant CNN-based Point Spread Function Estimation for Blind
Deconvolution and Depth Estimation in Optical Microscopy [6.09170287691728]
薄めながら平らでない物体の光顕微鏡画像の解像度を向上する手法を提案する。
畳み込みニューラルネットワーク(CNN)を用いた空間変動点スプレッド関数(PSF)モデルのパラメータを推定する。
本手法は,理想条件下での2乗ピアソン相関係数0.99で画像自体からPSFパラメータを復元する。
論文 参考訳(メタデータ) (2020-10-08T14:20:16Z) - MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion [29.405149234582623]
マルチフォーカス画像融合(MFIF)は、オールインフォーカス画像を得るための有望な技術である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
我々は,MFIF-GANと呼ばれるネットワークを用いて,前景領域が対応する対象よりも正確に大きいフォーカスマップを生成する。
論文 参考訳(メタデータ) (2020-09-21T09:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。