論文の概要: DeepContrast: Deep Tissue Contrast Enhancement using Synthetic Data
Degradations and OOD Model Predictions
- arxiv url: http://arxiv.org/abs/2308.08365v1
- Date: Wed, 16 Aug 2023 13:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:26:05.147843
- Title: DeepContrast: Deep Tissue Contrast Enhancement using Synthetic Data
Degradations and OOD Model Predictions
- Title(参考訳): DeepContrast: 合成データ劣化とOODモデル予測を用いた深部組織コントラスト強調
- Authors: Nuno Pimp\~ao Martins, Yannis Kalaidzidis, Marino Zerial, Florian Jug
- Abstract要約: 本稿では,顕微鏡画像のぼかしとコントラスト損失に対処する新しい手法を提案する。
まず, 深部組織画像劣化の近似モデルを用いて, 顕微鏡画像の品質をさらに劣化させた。
我々は、生成した生画像と劣化画像から、この劣化機能の逆転を学習するニューラルネットワークを訓練した。
- 参考スコア(独自算出の注目度): 6.550912532749276
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Microscopy images are crucial for life science research, allowing detailed
inspection and characterization of cellular and tissue-level structures and
functions. However, microscopy data are unavoidably affected by image
degradations, such as noise, blur, or others. Many such degradations also
contribute to a loss of image contrast, which becomes especially pronounced in
deeper regions of thick samples. Today, best performing methods to increase the
quality of images are based on Deep Learning approaches, which typically
require ground truth (GT) data during training. Our inability to counteract
blurring and contrast loss when imaging deep into samples prevents the
acquisition of such clean GT data. The fact that the forward process of
blurring and contrast loss deep into tissue can be modeled, allowed us to
propose a new method that can circumvent the problem of unobtainable GT data.
To this end, we first synthetically degraded the quality of microscopy images
even further by using an approximate forward model for deep tissue image
degradations. Then we trained a neural network that learned the inverse of this
degradation function from our generated pairs of raw and degraded images. We
demonstrated that networks trained in this way can be used out-of-distribution
(OOD) to improve the quality of less severely degraded images, e.g. the raw
data imaged in a microscope. Since the absolute level of degradation in such
microscopy images can be stronger than the additional degradation introduced by
our forward model, we also explored the effect of iterative predictions. Here,
we observed that in each iteration the measured image contrast kept improving
while detailed structures in the images got increasingly removed. Therefore,
dependent on the desired downstream analysis, a balance between contrast
improvement and retention of image details has to be found.
- Abstract(参考訳): 顕微鏡画像は生命科学研究に不可欠であり、細胞と組織レベルの構造と機能の詳細な検査とキャラクタリゼーションを可能にする。
しかし、顕微鏡データはノイズやぼやけなどの画像劣化によって必然的に影響を受ける。
このような劣化は画像のコントラストの低下にも寄与し、特に厚いサンプルの深い領域では顕著に発音される。
今日では、画像の品質を向上させるための最良の手法は、訓練中に地上真実(GT)データを必要とするディープラーニングアプローチに基づいている。
試料の奥深くを撮像すると、ぼやけやコントラスト損失に対処できないため、このようなクリーンなGTデータの取得は不可能です。
組織内へのぼやけやコントラスト損失の進行過程をモデル化できるという事実は、観察不能なgtデータの問題を回避できる新しい方法を提案することを可能にした。
そこで我々は, 深部組織像の劣化を近似的に予測するモデルを用いて, 顕微鏡画像の品質をさらに低下させた。
そして、生成された生画像と劣化画像から、この劣化機能の逆転を学習するニューラルネットワークを訓練した。
この方法でトレーニングされたネットワークは、顕微鏡で撮像された生データなど、劣化の少ない画像の品質を向上させるために、アウト・オブ・ディストリビューション(OOD)として使用できることを示した。
このような顕微鏡画像における絶対レベルの劣化は, 先行モデルによる付加的劣化よりも強くなるため, 反復予測の効果についても検討した。
ここでは,各イテレーションで測定された画像コントラストが向上し,画像の詳細な構造が徐々に除去されるのを観察した。
したがって、所望の下流分析に依存するため、コントラスト改善と画像詳細の保持のバランスを見いださなければならない。
関連論文リスト
- Phenotype-preserving metric design for high-content image reconstruction
by generative inpainting [0.0]
培養細胞の高濃度蛍光顕微鏡による画像修復法について検討した。
DeepFill V2やEdge Connectのようなアーキテクチャは、比較的少ないデータで微調整することで、顕微鏡イメージを忠実に復元できることを示します。
論文 参考訳(メタデータ) (2023-07-26T18:13:16Z) - LUCYD: A Feature-Driven Richardson-Lucy Deconvolution Network [0.31402652384742363]
本稿では,ボリューム顕微鏡画像の復元手法であるLUCYDを提案する。
ルーシードはリチャードソン=ルーシーの脱畳み込み公式と、完全な畳み込みネットワークによって得られる深い特徴の融合を組み合わせた。
実験の結果,LUCYDは顕微鏡画像の解像度,コントラスト,全体的な画質を大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-07-16T10:34:23Z) - Generalizable Denoising of Microscopy Images using Generative
Adversarial Networks and Contrastive Learning [0.0]
数発の顕微鏡画像復調のための新しいフレームワークを提案する。
提案手法は,比較学習(CL)を用いて学習したGAN(Generative Adversarial Network)と,損失項を保存する2つの構造を組み合わせたものである。
本手法が3つのよく知られた顕微鏡画像データセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-03-27T13:55:07Z) - DR2: Diffusion-based Robust Degradation Remover for Blind Face
Restoration [66.01846902242355]
ブラインド顔復元は通常、トレーニングのための事前定義された劣化モデルで劣化した低品質データを合成する。
トレーニングデータに現実のケースをカバーするために、あらゆる種類の劣化を含めることは、高価で実現不可能である。
本稿では、まず、劣化した画像を粗いが劣化不変な予測に変換し、次に、粗い予測を高品質な画像に復元するために拡張モジュールを使用するロバスト劣化再帰法(DR2)を提案する。
論文 参考訳(メタデータ) (2023-03-13T06:05:18Z) - Multiscale Structure Guided Diffusion for Image Deblurring [24.09642909404091]
拡散確率モデル (DPM) は画像の劣化に用いられている。
暗黙のバイアスとして、単純だが効果的なマルチスケール構造ガイダンスを導入する。
目に見えないデータのアーティファクトが少ないほど、より堅牢なデブロアリング結果を示します。
論文 参考訳(メタデータ) (2022-12-04T10:40:35Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Deep learning-based bias transfer for overcoming laboratory differences
of microscopic images [0.0]
免疫蛍光(IF)およびヘマトキシリンおよびエオシン(H&E)染色顕微鏡画像の領域シフトを克服するために,既存の生成モデルアーキテクチャを評価し,比較し,改良する。
前立腺生検では,ヒト腎糸球体およびポドサイトに対するピクセルレベルのセグメンテーションが有意に向上し,分類精度が最大14%向上した。
論文 参考訳(メタデータ) (2021-05-25T09:02:30Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Data Consistent CT Reconstruction from Insufficient Data with Learned
Prior Images [70.13735569016752]
偽陰性病変と偽陽性病変を呈示し,CT画像再構成における深層学習の堅牢性について検討した。
本稿では,圧縮センシングと深層学習の利点を組み合わせた画像品質向上のためのデータ一貫性再構築手法を提案する。
提案手法の有効性は,円錐ビームCTにおいて,トランキャットデータ,リミテッドアングルデータ,スパースビューデータで示される。
論文 参考訳(メタデータ) (2020-05-20T13:30:49Z) - Invertible Image Rescaling [118.2653765756915]
Invertible Rescaling Net (IRN) を開発した。
我々は、ダウンスケーリングプロセスにおいて、指定された分布に従う潜在変数を用いて、失われた情報の分布をキャプチャする。
論文 参考訳(メタデータ) (2020-05-12T09:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。