論文の概要: Deep machine learning-assisted multiphoton microscopy to reduce light
exposure and expedite imaging
- arxiv url: http://arxiv.org/abs/2011.06408v1
- Date: Tue, 10 Nov 2020 21:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 08:33:59.606584
- Title: Deep machine learning-assisted multiphoton microscopy to reduce light
exposure and expedite imaging
- Title(参考訳): 深層学習支援多光子顕微鏡による露光低減と迅速イメージング
- Authors: Stephen McAleer, Alex Fast, Yuntian Xue, Magdalene Seiler, William
Tang, Mihaela Balu, Pierre Baldi, Andrew W. Browne
- Abstract要約: 2光子励起蛍光(2PEF)は、組織を厚さ約1mmまでイメージングする。
本研究は、画像品質を最大化するために深層学習を適用してヒト組織イメージングを改善することを検討する。
- 参考スコア(独自算出の注目度): 8.284995747555229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Two-photon excitation fluorescence (2PEF) allows imaging of tissue up to
about one millimeter in thickness. Typically, reducing fluorescence excitation
exposure reduces the quality of the image. However, using deep learning super
resolution techniques, these low-resolution images can be converted to
high-resolution images. This work explores improving human tissue imaging by
applying deep learning to maximize image quality while reducing fluorescence
excitation exposure. We analyze two methods: a method based on U-Net, and a
patch-based regression method. Both methods are evaluated on a skin dataset and
an eye dataset. The eye dataset includes 1200 paired high power and low power
images of retinal organoids. The skin dataset contains multiple frames of each
sample of human skin. High-resolution images were formed by averaging 70 frames
for each sample and low-resolution images were formed by averaging the first 7
and 15 frames for each sample. The skin dataset includes 550 images for each of
the resolution levels. We track two measures of performance for the two
methods: mean squared error (MSE) and structural similarity index measure
(SSIM). For the eye dataset, the patches method achieves an average MSE of
27,611 compared to 146,855 for the U-Net method, and an average SSIM of 0.636
compared to 0.607 for the U-Net method. For the skin dataset, the patches
method achieves an average MSE of 3.768 compared to 4.032 for the U-Net method,
and an average SSIM of 0.824 compared to 0.783 for the U-Net method. Despite
better performance on image quality, the patches method is worse than the U-Net
method when comparing the speed of prediction, taking 303 seconds to predict
one image compared to less than one second for the U-Net method.
- Abstract(参考訳): 2光子励起蛍光(2PEF)は、組織を厚さ約1mmまでイメージングする。
通常、蛍光励起露光の低減は画像の品質を低下させる。
しかし、ディープラーニングのスーパーレゾリューション技術を使って、これらの低解像度画像を高解像度画像に変換することができる。
本研究は, 蛍光励起露光を低減しつつ, 画像品質を最大化するために深層学習を適用したヒト組織イメージングの改善について検討する。
U-Netに基づく手法とパッチベースの回帰手法の2つの方法を分析する。
どちらの方法も、皮膚データセットと眼データセットで評価される。
眼球データセットは、1200対の高出力と低出力の網膜オルガノイド画像を含む。
皮膚データセットは、ヒト皮膚の各サンプルの複数のフレームを含む。
高分解能画像は, 試料平均70フレーム, 低分解能画像は試料平均7フレーム, 試料平均15フレームで形成した。
スキンデータセットは、解像度レベルごとに550の画像を含む。
平均二乗誤差 (MSE) と構造的類似度指数 (SSIM) の2つの手法の性能測定を行った。
眼球データセットでは、U-Net法では平均MSEが27,611、U-Net法では146,855、U-Net法では平均SSIMが0.636である。
皮膚データセットでは,U-Net法では平均MSEが3.768,U-Net法では4.032,U-Net法では平均SSIMが0.824,U-Net法では0.783であった。
画像の画質は良いが、予測速度を比較する場合、パッチ法はu-net法よりも悪く、1つの画像を予測するのに303秒かかり、u-net法では1秒未満である。
関連論文リスト
- MetaF2N: Blind Image Super-Resolution by Learning Efficient Model
Adaptation from Faces [51.42949911178461]
メタ学習フレームワークにおいて,自然画像全体に対応するためのモデルパラメータを微調整するメタF2Nという手法を提案する。
復元された顔と接地構造とのギャップを考慮すると,低信頼領域の影響を低減するために,異なる位置における損失重みを適応的に予測するMaskNetを配置する。
論文 参考訳(メタデータ) (2023-09-15T02:45:21Z) - AI pipeline for accurate retinal layer segmentation using OCT 3D images [3.938455123895825]
いくつかの古典的およびAIベースのアルゴリズムが組み合わせてテストされ、動物イメージングシステムからのデータとの互換性を確認している。
単純で実装可能な解析方程式は、平均ピクセル値の1%インクリメントで輝度操作に有効であることが示されている。
厚み推定処理は、手動の注釈付き標準データと比較して6%の誤差を有する。
論文 参考訳(メタデータ) (2023-02-15T17:46:32Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - The applicability of transperceptual and deep learning approaches to the
study and mimicry of complex cartilaginous tissues [0.0]
複雑な軟組織、例えば膝半月板は、移動と関節の健康において重要な役割を担っている。
組織を設計するためには、組織の内部構造を理解して複製する必要がある。
私たちは、ネイティブなアーキテクチャを模倣する人工アーキテクチャを生成するために、オーディオと視覚を組み合わせたアプローチ、いわゆるトランスパーセプティカル(transperceptual)を探求します。
論文 参考訳(メタデータ) (2022-11-21T08:51:52Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - Deep Learning Adapted Acceleration for Limited-view Photoacoustic
Computed Tomography [1.8830359888767887]
光音響計算トモグラフィ(PACT)は、PA信号検出のための超音波トランスデューサアレイでターゲットを照らすために、焦点のない大面積の光を使用する。
限定ビュー問題は、幾何学的条件の制限により、PACTの低画質の画像を引き起こす可能性がある。
数学的変動モデルとディープラーニングを組み合わせたモデルベース手法を提案する。
論文 参考訳(メタデータ) (2021-11-08T02:05:58Z) - TextureWGAN: Texture Preserving WGAN with MLE Regularizer for Inverse
Problems [4.112614964808275]
提案手法の中で最も一般的で効果的な方法は平均二乗誤差(MSE)を持つ畳み込みニューラルネットワーク(CNN)である。
逆問題に対するWGAN(Wasserstein GAN)に基づく新しい手法を提案する。
We showed that the WGAN-based method was effective to maintain image texture, it also also used a maximum max estimation regularizer (MLE) to maintain pixel fidelity。
論文 参考訳(メタデータ) (2020-08-11T17:06:34Z) - Depth image denoising using nuclear norm and learning graph model [107.51199787840066]
グループベース画像復元法は,パッチ間の類似性収集に有効である。
各パッチに対して、検索ウィンドウ内で最もよく似たパッチを見つけ、グループ化する。
提案手法は, 主観的, 客観的両面において, 最先端の復調法よりも優れている。
論文 参考訳(メタデータ) (2020-08-09T15:12:16Z) - Single Image Brightening via Multi-Scale Exposure Fusion with Hybrid
Learning [48.890709236564945]
小さいISOと小さな露光時間は、通常、背面または低い光条件下で画像をキャプチャするために使用される。
本稿では、そのような画像を明るくするために、単一の画像輝度化アルゴリズムを提案する。
提案アルゴリズムは,露出時間が大きい2つの仮想画像を生成するための,ユニークなハイブリッド学習フレームワークを含む。
論文 参考訳(メタデータ) (2020-07-04T08:23:07Z) - Perceptually Optimizing Deep Image Compression [53.705543593594285]
平均二乗誤差(MSE)と$ell_p$ノルムは、ニューラルネットワークの損失の測定で大きく支配されている。
本稿では,定量的知覚モデルに対して,画像解析ネットワークを最適化するための異なるプロキシ手法を提案する。
論文 参考訳(メタデータ) (2020-07-03T14:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。