論文の概要: Autonomous Quality and Hallucination Assessment for Virtual Tissue Staining and Digital Pathology
- arxiv url: http://arxiv.org/abs/2404.18458v1
- Date: Mon, 29 Apr 2024 06:32:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 14:36:46.015289
- Title: Autonomous Quality and Hallucination Assessment for Virtual Tissue Staining and Digital Pathology
- Title(参考訳): 仮想組織染色とデジタル病理の自律的品質と幻覚評価
- Authors: Luzhe Huang, Yuzhu Li, Nir Pillar, Tal Keidar Haran, William Dean Wallace, Aydogan Ozcan,
- Abstract要約: 仮想組織染色のための自律的品質・幻覚評価法(AQuA)を提案する。
AQuAは、許容され、受け入れられない事実上の染色組織像を検出すると、99.8%の精度を達成する。
- 参考スコア(独自算出の注目度): 0.11728348229595655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Histopathological staining of human tissue is essential in the diagnosis of various diseases. The recent advances in virtual tissue staining technologies using AI alleviate some of the costly and tedious steps involved in the traditional histochemical staining process, permitting multiplexed rapid staining of label-free tissue without using staining reagents, while also preserving tissue. However, potential hallucinations and artifacts in these virtually stained tissue images pose concerns, especially for the clinical utility of these approaches. Quality assessment of histology images is generally performed by human experts, which can be subjective and depends on the training level of the expert. Here, we present an autonomous quality and hallucination assessment method (termed AQuA), mainly designed for virtual tissue staining, while also being applicable to histochemical staining. AQuA achieves 99.8% accuracy when detecting acceptable and unacceptable virtually stained tissue images without access to ground truth, also presenting an agreement of 98.5% with the manual assessments made by board-certified pathologists. Besides, AQuA achieves super-human performance in identifying realistic-looking, virtually stained hallucinatory images that would normally mislead human diagnosticians by deceiving them into diagnosing patients that never existed. We further demonstrate the wide adaptability of AQuA across various virtually and histochemically stained tissue images and showcase its strong external generalization to detect unseen hallucination patterns of virtual staining network models as well as artifacts observed in the traditional histochemical staining workflow. This framework creates new opportunities to enhance the reliability of virtual staining and will provide quality assurance for various image generation and transformation tasks in digital pathology and computational imaging.
- Abstract(参考訳): 病理組織染色は様々な疾患の診断に不可欠である。
近年のAIを用いた仮想組織染色技術の進歩は、従来の組織化学的染色プロセスにかかわるコストと退屈なステップを緩和し、染色試薬を使わずにラベルのない組織の多重化を迅速に行うことができるとともに、組織を保存できる。
しかし、これらの事実上染色された組織像の潜在的幻覚やアーティファクトは、特にこれらのアプローチの臨床的有用性に懸念を生じさせる。
組織像の品質評価は、一般に人間の専門家によって行われ、主観的であり、専門家の訓練レベルに依存する。
本稿では, 仮想組織染色を主目的とする自律的品質・幻覚評価法(AQuA)について述べるとともに, 組織化学的染色にも適用可能である。
AQuAは、地面の真実にアクセスすることなく、許容され、受け入れられない仮想的な組織像を検出すると、99.8%の精度を達成し、また、ボード認証された病理医による手動評価と98.5%の一致を示した。
さらにAQuAは、現実的に見える、事実上染色された幻覚画像を識別する超人的なパフォーマンスを実現している。
さらに, 仮想染色ネットワークモデルと従来の組織化学的染色ワークフローで観察されるアーティファクトの異常幻覚パターンを検出するために, 仮想的および組織化学的染色組織像にまたがるAQuAの広範囲な適応性を示す。
このフレームワークは、仮想染色の信頼性を高める新たな機会を生み出し、デジタル病理学および計算画像における様々な画像生成および変換タスクの品質保証を提供する。
関連論文リスト
- FairSkin: Fair Diffusion for Skin Disease Image Generation [54.29840149709033]
拡散モデル (DM) は, 合成医用画像の生成において主要な手法となっているが, 臨界二倍偏差に悩まされている。
このようなバイアスを3段階のリサンプリング機構によって緩和する新しいDMフレームワークであるFairSkinを提案する。
本手法は, 画像の多様性と品質を著しく向上させ, 臨床環境における皮膚疾患の検出精度の向上に寄与する。
論文 参考訳(メタデータ) (2024-10-29T21:37:03Z) - Generating Seamless Virtual Immunohistochemical Whole Slide Images with Content and Color Consistency [2.063403009505468]
免疫組織化学(IHC)染色は、病理医の医療画像解析において重要な役割を担い、様々な疾患の診断に重要な情報を提供する。
ヘマトキシリンとエオシン(H&E)を染色した全スライド画像(WSI)の仮想染色により、高価な物理的染色プロセスなしで他の有用なICC染色を自動生成することができる。
タイルワイズ処理に基づく現在の仮想WSI生成法は、タイル境界における内容、テクスチャ、色の不整合に悩まされることが多い。
GANモデルを拡張した新しい一貫したWSI合成ネットワークCC-WSI-Netを提案する。
論文 参考訳(メタデータ) (2024-10-01T21:02:16Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Single color digital H&E staining with In-and-Out Net [0.8271394038014485]
本稿では,仮想染色タスクに特化して設計された新しいネットワークIn-and-Out Netを提案する。
我々はGAN(Generative Adversarial Networks)に基づいて,反射共焦点顕微鏡(RCM)画像からヘマトキシリンおよびエオシン染色画像へ効率的に変換する。
論文 参考訳(メタデータ) (2024-05-22T01:17:27Z) - Virtual histological staining of unlabeled autopsy tissue [1.9351365037275405]
トレーニングされたニューラルネットワークは、ラベルのない解剖組織セクションの自己蛍光画像から、ヘマトキシリンとエオシンの染色された同じサンプルの鮮明な等価画像に変換することができる。
我々の仮想解剖染色技術は壊死組織にまで拡張することができ、重篤な自己分解と細胞死にもかかわらず、高速かつ費用対効果で無形H&E染色を生成できる。
論文 参考訳(メタデータ) (2023-08-02T03:31:22Z) - Automated Whole Slide Imaging for Label-Free Histology using Photon
Absorption Remote Sensing Microscopy [0.0]
現在の染色法と高度なラベリング法は、しばしば破壊的であり、相互に相容れない。
最初の透過モード光子リモートセンシング顕微鏡を用いたラベルフリー組織学プラットフォームを提案する。
論文 参考訳(メタデータ) (2023-04-26T12:36:19Z) - Digital staining in optical microscopy using deep learning -- a review [47.86254766044832]
デジタル染色は、光学的コントラストから実際の染色の確立された生化学的コントラストへの翻訳に近代的な深層学習を利用するための有望な概念として登場した。
この分野の現状を詳細に分析し、優れた実践方法を提案し、落とし穴と課題を特定し、将来の実装やアプリケーションに向けた将来的な進歩を仮定する。
論文 参考訳(メタデータ) (2023-03-14T15:23:48Z) - Virtual stain transfer in histology via cascaded deep neural networks [2.309018557701645]
ケースドディープニューラルネットワーク(C-DNN)による仮想染色伝達フレームワークの実証を行った。
C-DNNは、入力として1つの染色タイプのみを取り込んで別の染色タイプの画像をデジタル出力する単一のニューラルネットワーク構造とは異なり、まず仮想染色を使用して、自己蛍光顕微鏡画像をH&Eに変換する。
我々は,H&E染色組織像を仮想PAS( periodic acid-Schiff)染色に変換することに成功した。
論文 参考訳(メタデータ) (2022-07-14T00:43:18Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。