論文の概要: Slide-free MUSE Microscopy to H&E Histology Modality Conversion via
Unpaired Image-to-Image Translation GAN Models
- arxiv url: http://arxiv.org/abs/2008.08579v1
- Date: Wed, 19 Aug 2020 17:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 11:44:12.895621
- Title: Slide-free MUSE Microscopy to H&E Histology Modality Conversion via
Unpaired Image-to-Image Translation GAN Models
- Title(参考訳): 非対向画像変換GANモデルによる無スライドMUSE顕微鏡とH&E組織学のモダリティ変換
- Authors: Tanishq Abraham, Andrew Shaw, Daniel O'Connor, Austin Todd, Richard
Levenson
- Abstract要約: 本研究の目的は,MUSE画像をヘマトキシリンおよびエオシン染色(H&E)画像に類似させることである。
CycleGANとGANILLAは、H&Eスタイルと保存されたMUSEコンテンツを適切に転送する視覚的に魅力的な結果を提供した。
- 参考スコア(独自算出の注目度): 0.5249805590164901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MUSE is a novel slide-free imaging technique for histological examination of
tissues that can serve as an alternative to traditional histology. In order to
bridge the gap between MUSE and traditional histology, we aim to convert MUSE
images to resemble authentic hematoxylin- and eosin-stained (H&E) images. We
evaluated four models: a non-machine-learning-based color-mapping
unmixing-based tool, CycleGAN, DualGAN, and GANILLA. CycleGAN and GANILLA
provided visually compelling results that appropriately transferred H&E style
and preserved MUSE content. Based on training an automated critic on real and
generated H&E images, we determined that CycleGAN demonstrated the best
performance. We have also found that MUSE color inversion may be a necessary
step for accurate modality conversion to H&E. We believe that our MUSE-to-H&E
model can help improve adoption of novel slide-free methods by bridging a
perceptual gap between MUSE imaging and traditional histology.
- Abstract(参考訳): MUSEは、従来の組織学の代替として機能する組織の組織学的検査のための新しいスライドフリーイメージング技術である。
MUSEと従来の組織学のギャップを埋めるため,本研究では,MUSE画像をヘマトキシリンおよびエオシン染色(H&E)画像に類似させる。
我々は,非機械学習に基づくカラーマッピングツール,CycleGAN,DualGAN,GANILLAの4つのモデルを評価した。
CycleGANとGANILLAは、H&EスタイルとMUSEコンテンツを適切に転送する視覚的に魅力的な結果を提供した。
実画像および生成されたH&E画像に対する自動批評家のトレーニングに基づいて,CycleGANが最高の性能を示した。
また,MUSE色インバージョンがH&Eへの正確なモダリティ変換に必要なステップであることも見出した。
我々はMUSE-to-H&Eモデルが,MUSE画像と従来の組織学の知覚的ギャップを埋めることで,新しいスライドフリー手法の採用を促進することができると考えている。
関連論文リスト
- ShapeMamba-EM: Fine-Tuning Foundation Model with Local Shape Descriptors and Mamba Blocks for 3D EM Image Segmentation [49.42525661521625]
本稿では3次元EMセグメンテーションのための特殊微調整法であるShapeMamba-EMを提案する。
5つのセグメンテーションタスクと10のデータセットをカバーする、幅広いEMイメージでテストされている。
論文 参考訳(メタデータ) (2024-08-26T08:59:22Z) - Single color virtual H&E staining with In-and-Out Net [0.8271394038014485]
本稿では,仮想染色タスクに特化して設計された新しいネットワークIn-and-Out Netを提案する。
我々はGAN(Generative Adversarial Networks)に基づいて,反射共焦点顕微鏡(RCM)画像からヘマトキシリンおよびエオシン染色画像へ効率的に変換する。
論文 参考訳(メタデータ) (2024-05-22T01:17:27Z) - MS-MANO: Enabling Hand Pose Tracking with Biomechanical Constraints [50.61346764110482]
筋骨格系と学習可能なパラメトリックハンドモデルMANOを統合し,MS-MANOを作成する。
このモデルは骨格系を駆動する筋肉と腱の力学をエミュレートし、結果として生じるトルク軌跡に生理学的に現実的な制約を与える。
また,マルチ層パーセプトロンネットワークによる初期推定ポーズを改良する,ループ式ポーズ改善フレームワークBioPRを提案する。
論文 参考訳(メタデータ) (2024-04-16T02:18:18Z) - Multi-Branch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction [42.95604565673447]
本稿では,マルチブランチ生成モデルを用いた医用画像の相乗的再構築のための新しい手法を提案する。
我々は,MNIST (Modified National Institute of Standards and Technology) とPET (positron emission tomography) とCT (Computed tomography) の2つのデータセットに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-04-12T18:21:08Z) - Retinal OCT Synthesis with Denoising Diffusion Probabilistic Models for
Layer Segmentation [2.4113205575263708]
本稿では,拡散確率モデル(DDPM)を用いて網膜光コヒーレンス断層撮影(OCT)画像を自動的に生成する画像合成手法を提案する。
階層分割の精度を一貫して改善し,様々なニューラルネットワークを用いて検証する。
これらの結果から,網膜CT画像の手動アノテーションの必要性が軽減される可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-09T16:09:24Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - MetaMorph: Learning Metamorphic Image Transformation With Appearance
Changes [7.248454903977972]
外観変化を伴う画像の登録のための新しい予測モデルMetaMorph(脳腫瘍による画像の登録)を提案する。
本モデルでは, 外観変化領域の負の効果を効果的に抑制できる新しい正規化を導入する。
実際のヒト脳腫瘍MRI画像におけるMetaMorphの有用性について検討した。
論文 参考訳(メタデータ) (2023-03-08T19:30:58Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Virtual staining for mitosis detection in Breast Histopathology [5.004307299517538]
本稿では,乳がん組織の病理組織像をマッピングするために,ジェネレーティブ・アドバイサル・ネットワークに基づく仮想染色手法を提案する。
得られた合成画像を用いて、畳み込みニューラルネットワーク(CNN)を構築し、有糸分裂図形の自動検出を行う。
論文 参考訳(メタデータ) (2020-03-17T16:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。