論文の概要: Blind stain separation using model-aware generative learning and its
applications on fluorescence microscopy images
- arxiv url: http://arxiv.org/abs/2102.06802v1
- Date: Fri, 12 Feb 2021 22:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 06:52:04.837687
- Title: Blind stain separation using model-aware generative learning and its
applications on fluorescence microscopy images
- Title(参考訳): モデル認識生成学習を用いたブラインド染色分離と蛍光顕微鏡画像への応用
- Authors: Xingyu Li
- Abstract要約: 先行モデルに基づく染色分離法は,画像上の汚れの空間分布に依存する。
この目的のために深い生成モデルが使用される。
本研究では,新しい学習に基づくブラインドソース分離フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiple stains are usually used to highlight biological substances in
biomedical image analysis. To decompose multiple stains for co-localization
quantification, blind source separation is usually performed. Prior model-based
stain separation methods usually rely on stains' spatial distributions over an
image and may fail to solve the co-localization problem. With the advantage of
machine learning, deep generative models are used for this purpose. Since prior
knowledge of imaging models is ignored in purely data-driven solutions, these
methods may be sub-optimal. In this study, a novel learning-based blind source
separation framework is proposed, where the physical model of biomedical
imaging is incorporated to regularize the learning process. The introduced
model-relevant adversarial loss couples all generators in the framework and
limits the capacities of the generative models. Further more, a training
algorithm is innovated for the proposed framework to avoid inter-generator
confusion during learning. This paper particularly takes fluorescence unmixing
in fluorescence microscopy images as an application example of the proposed
framework. Qualitative and quantitative experimentation on a public
fluorescence microscopy image set demonstrates the superiority of the proposed
method over both prior model-based approaches and learning-based methods.
- Abstract(参考訳): 多重染色は通常、生体画像解析において生体物質を強調するために用いられる。
共局在定量化のための複数の汚れを分解するには、通常ブラインドソース分離を行う。
先行モデルに基づく染色分離法は通常、画像上の汚れの空間分布に依存し、共局在問題を解くことができない。
機械学習の利点により、この目的のために深い生成モデルが使用される。
画像モデルの以前の知識は純粋にデータ駆動のソリューションでは無視されるため、これらの手法は準最適である。
本研究では,バイオメディカルイメージングの物理モデルを用いて学習プロセスの標準化を行う,新たな学習ベースブラインドソース分離フレームワークを提案する。
導入されたモデル関連敵対損失は、フレームワーク内のすべてのジェネレータを結合し、生成モデルの能力を制限する。
さらに,学習中の世代間混乱を回避するため,提案フレームワークの学習アルゴリズムを改良した。
本稿では, 蛍光顕微鏡画像における蛍光アンミキシングをフレームワークの応用例として取り上げる。
一般蛍光顕微鏡画像の定性的および定量的実験により,従来のモデルに基づく手法と学習に基づく手法の両方よりも提案手法が優れていることを示す。
関連論文リスト
- Mask-guided cross-image attention for zero-shot in-silico histopathologic image generation with a diffusion model [0.10910416614141322]
拡散モデルは、シリコン内画像を生成する最先端のソリューションである。
自然画像の出現伝達拡散モデルが設計されている。
計算病理学、特に腫瘍学では、画像内のどのオブジェクトを前景と背景に分類すべきかを簡単に定義することはできない。
我々は,クラス固有のAdaIN特徴量マッチングを交互に行うために,外観伝達指導を変更することで,拡散安定画像への外観伝達モデルの適用性に寄与する。
論文 参考訳(メタデータ) (2024-07-16T12:36:26Z) - Single Exposure Quantitative Phase Imaging with a Conventional Microscope using Diffusion Models [2.0760654993698426]
TIE(Transport-of-Intensity Equation)はしばしば異なるデフォーカス距離で複数の取得を必要とする。
そこで本研究では,クロマティック収差を用いて,必要なスルーフォーカス画像を単一露光で誘導する手法を提案する。
我々の貢献は、色収差を利用した別のTIEアプローチを提供し、白色光による正確な単一露光位相測定を実現している。
論文 参考訳(メタデータ) (2024-06-06T15:44:24Z) - Multi-target stain normalization for histology slides [6.820595748010971]
我々は,複数の参照画像を活用する新しい手法を導入し,染色変化に対する堅牢性を高める。
提案手法はパラメータフリーであり,有意な変化のない既存の計算病理パイプラインに適用可能である。
論文 参考訳(メタデータ) (2024-06-04T07:57:34Z) - Detecting Images Generated by Deep Diffusion Models using their Local
Intrinsic Dimensionality [8.968599131722023]
拡散モデルは驚くほどリアルな画像の視覚合成に成功している。
これにより、悪意のある目的のために、彼らの可能性に対する強い懸念が持ち上がる。
合成画像の自動検出に軽量な多重局所固有次元法(multiLID)を提案する。
論文 参考訳(メタデータ) (2023-07-05T15:03:10Z) - Reduce, Reuse, Recycle: Compositional Generation with Energy-Based Diffusion Models and MCMC [102.64648158034568]
拡散モデルは、多くの領域において、生成モデリングの一般的なアプローチとなっている。
本稿では,新しい構成演算子の利用を可能にする拡散モデルのエネルギーベースパラメータ化を提案する。
これらのサンプルは、幅広い問題にまたがって構成生成の顕著な改善につながっている。
論文 参考訳(メタデータ) (2023-02-22T18:48:46Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。