論文の概要: Virtual staining of defocused autofluorescence images of unlabeled
tissue using deep neural networks
- arxiv url: http://arxiv.org/abs/2207.02946v1
- Date: Wed, 6 Jul 2022 19:55:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 13:28:13.195869
- Title: Virtual staining of defocused autofluorescence images of unlabeled
tissue using deep neural networks
- Title(参考訳): 深層ニューラルネットワークを用いた非ラベル組織の脱焦点自己蛍光像の仮想染色
- Authors: Yijie Zhang, Luzhe Huang, Tairan Liu, Keyi Cheng, Kevin de Haan, Yuzhu
Li, Bijie Bai, Aydogan Ozcan
- Abstract要約: 本研究では,非標識組織の脱焦点自己蛍光像を染色できる高速仮想染色フレームワークを提案する。
このフレームワークは、仮想オートフォーカスニューラルネットワークを組み込んで、デフォーカスされたイメージをデジタル的に再フォーカスし、リフォーカスされたイメージを仮想的なステンドイメージに変換する。
- 参考スコア(独自算出の注目度): 2.433294561208518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based virtual staining was developed to introduce image
contrast to label-free tissue sections, digitally matching the histological
staining, which is time-consuming, labor-intensive, and destructive to tissue.
Standard virtual staining requires high autofocusing precision during the whole
slide imaging of label-free tissue, which consumes a significant portion of the
total imaging time and can lead to tissue photodamage. Here, we introduce a
fast virtual staining framework that can stain defocused autofluorescence
images of unlabeled tissue, achieving equivalent performance to virtual
staining of in-focus label-free images, also saving significant imaging time by
lowering the microscope's autofocusing precision. This framework incorporates a
virtual-autofocusing neural network to digitally refocus the defocused images
and then transforms the refocused images into virtually stained images using a
successive network. These cascaded networks form a collaborative inference
scheme: the virtual staining model regularizes the virtual-autofocusing network
through a style loss during the training. To demonstrate the efficacy of this
framework, we trained and blindly tested these networks using human lung
tissue. Using 4x fewer focus points with 2x lower focusing precision, we
successfully transformed the coarsely-focused autofluorescence images into
high-quality virtually stained H&E images, matching the standard virtual
staining framework that used finely-focused autofluorescence input images.
Without sacrificing the staining quality, this framework decreases the total
image acquisition time needed for virtual staining of a label-free whole-slide
image (WSI) by ~32%, together with a ~89% decrease in the autofocusing time,
and has the potential to eliminate the laborious and costly histochemical
staining process in pathology.
- Abstract(参考訳): ディープラーニングに基づく仮想染色は、ラベルのない組織セクションとのイメージコントラストを導入し、組織染色をデジタル的にマッチングするために開発された。
標準の仮想染色では、ラベルのない組織のスライドイメージング全体において高いオートフォーカス精度が要求される。
本稿では,非ラベル組織の脱焦点自己蛍光像を染色し,無焦点ラベル画像の仮想染色と同等の性能を達成し,顕微鏡の自己焦点精度を低下させることにより,大幅な撮像時間を節約できる高速仮想染色フレームワークを提案する。
このフレームワークは、仮想的オートフォーカスニューラルネットワークを組み込んで、デフォーカスイメージをディジタルに再フォーカスし、再フォーカスされたイメージを、連続したネットワークを使用して仮想ステンドイメージに変換する。
これらのカスケードネットワークは協調的推論スキームを形成し、仮想染色モデルはトレーニング中にスタイル損失によって仮想オートフォーカスネットワークを正規化する。
本フレームワークの有効性を実証するために,ヒト肺組織を用いてこれらのネットワークを訓練し,盲目的にテストした。
2倍のフォーカス精度を持つ4倍のフォーカスポイントを用いて、粗焦点の自己蛍光画像を高品質な仮想染色h&e画像に変換し、微細焦点の自己蛍光入力画像を用いた標準的な仮想染色フレームワークに適合させた。
染色品質を犠牲にすることなく、このフレームワークはラベルのない全スライディング画像(WSI)の仮想染色に必要な総画像取得時間を約32%削減し、オートフォーカス時間の約89%を削減し、病理学における退屈で高価な組織化学的染色プロセスを除去する可能性がある。
関連論文リスト
- Super-resolved virtual staining of label-free tissue using diffusion models [2.8661150986074384]
本研究では,ブラウン橋プロセスを用いた拡散モデルに基づく超解像仮想染色手法を提案する。
提案手法は,新しいサンプリング手法を拡散モデルに基づく画像推論プロセスに統合する。
ラベルのないヒト肺組織サンプルの低分解能自動蛍光画像に盲目的に適用し、拡散に基づく超高分解能仮想染色モデルは、従来の解像度、構造的類似性、知覚精度のアプローチよりも一貫して優れていた。
論文 参考訳(メタデータ) (2024-10-26T04:31:17Z) - Single color digital H&E staining with In-and-Out Net [0.8271394038014485]
本稿では,仮想染色タスクに特化して設計された新しいネットワークIn-and-Out Netを提案する。
我々はGAN(Generative Adversarial Networks)に基づいて,反射共焦点顕微鏡(RCM)画像からヘマトキシリンおよびエオシン染色画像へ効率的に変換する。
論文 参考訳(メタデータ) (2024-05-22T01:17:27Z) - Autonomous Quality and Hallucination Assessment for Virtual Tissue Staining and Digital Pathology [0.11728348229595655]
仮想組織染色のための自律的品質・幻覚評価法(AQuA)を提案する。
AQuAは、許容され、受け入れられない事実上の染色組織像を検出すると、99.8%の精度を達成する。
論文 参考訳(メタデータ) (2024-04-29T06:32:28Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - Virtual stain transfer in histology via cascaded deep neural networks [2.309018557701645]
ケースドディープニューラルネットワーク(C-DNN)による仮想染色伝達フレームワークの実証を行った。
C-DNNは、入力として1つの染色タイプのみを取り込んで別の染色タイプの画像をデジタル出力する単一のニューラルネットワーク構造とは異なり、まず仮想染色を使用して、自己蛍光顕微鏡画像をH&Eに変換する。
我々は,H&E染色組織像を仮想PAS( periodic acid-Schiff)染色に変換することに成功した。
論文 参考訳(メタデータ) (2022-07-14T00:43:18Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - NuI-Go: Recursive Non-Local Encoder-Decoder Network for Retinal Image
Non-Uniform Illumination Removal [96.12120000492962]
網膜画像の画質は、眼の病変や不完全な画像処理のために臨床的に不満足であることが多い。
網膜画像における最も難しい品質劣化問題の1つは、一様でない照明である。
我々はNuI-Goと呼ばれる網膜画像に対する均一でない照明除去ネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-07T04:31:33Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。