論文の概要: Synthesis of Annotated Colorectal Cancer Tissue Images from Gland Layout
- arxiv url: http://arxiv.org/abs/2305.05006v2
- Date: Thu, 4 Apr 2024 22:51:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 20:59:44.877099
- Title: Synthesis of Annotated Colorectal Cancer Tissue Images from Gland Layout
- Title(参考訳): Gland Layoutによる大腸癌組織像の合成
- Authors: Srijay Deshpande, Fayyaz Minhas, Nasir Rajpoot,
- Abstract要約: 合成生成された画像とアノテーションは、この領域におけるアルゴリズムのトレーニングと評価に有用である。
そこで本研究では, 腺構造レイアウトから, 対応する腺マスクを用いて, リアルな大腸癌組織像を生成するインタラクティブなフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating realistic tissue images with annotations is a challenging task that is important in many computational histopathology applications. Synthetically generated images and annotations are valuable for training and evaluating algorithms in this domain. To address this, we propose an interactive framework generating pairs of realistic colorectal cancer histology images with corresponding glandular masks from glandular structure layouts. The framework accurately captures vital features like stroma, goblet cells, and glandular lumen. Users can control gland appearance by adjusting parameters such as the number of glands, their locations, and sizes. The generated images exhibit good Frechet Inception Distance (FID) scores compared to the state-of-the-art image-to-image translation model. Additionally, we demonstrate the utility of our synthetic annotations for evaluating gland segmentation algorithms. Furthermore, we present a methodology for constructing glandular masks using advanced deep generative models, such as latent diffusion models. These masks enable tissue image generation through a residual encoder-decoder network.
- Abstract(参考訳): 現実的な組織像をアノテーションで生成することは、多くの計算病理学応用において重要な課題である。
合成生成された画像とアノテーションは、この領域におけるアルゴリズムのトレーニングと評価に有用である。
そこで本研究では, 腺構造レイアウトから, 対応する腺マスクを用いて, リアルな大腸癌組織像を生成するインタラクティブなフレームワークを提案する。
このフレームワークは、ストローマ、ゴブレット細胞、腺路などの重要な特徴を正確に捉えている。
ユーザーは、腺の数、位置、サイズなどのパラメータを調整することで、腺の外観を制御することができる。
生成された画像は、最新画像画像画像変換モデルと比較して、良好なFrechet Inception Distance(FID)スコアを示す。
さらに, 腺分節アルゴリズムの評価における合成アノテーションの有用性を実証した。
さらに,潜伏拡散モデルなどの高度な深層生成モデルを用いて腺状マスクを構築する手法を提案する。
これらのマスクは、残留エンコーダデコーダネットワークを介して組織画像を生成することができる。
関連論文リスト
- PriorPath: Coarse-To-Fine Approach for Controlled De-Novo Pathology Semantic Masks Generation [0.0]
粗い粒度の画像から得られた詳細でリアルなセマンティックマスクを生成するパイプラインであるPresidePathを提案する。
このアプローチにより、生成されたマスクの空間配置を制御でき、結果として合成画像が生成される。
論文 参考訳(メタデータ) (2024-11-25T15:57:19Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - DEPAS: De-novo Pathology Semantic Masks using a Generative Model [0.0]
DEPASと呼ばれるスケーラブルな生成モデルを導入し、組織構造をキャプチャし、最先端の品質の高精細なセマンティックマスクを生成する。
我々は,DEPASが皮膚,前立腺,肺の3種類の臓器に対して,組織の現実的な意味マップを生成する能力を示した。
論文 参考訳(メタデータ) (2023-02-13T16:48:33Z) - Deepfake histological images for enhancing digital pathology [0.40631409309544836]
我々は,クラスラベルに制約された病理像を合成する生成逆ネットワークモデルを開発した。
前立腺および大腸組織像の合成におけるこの枠組みの有用性について検討した。
大腸生検によるより複雑な画像へのアプローチを拡張し,そのような組織における複雑な微小環境も再現可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:11:08Z) - Improving anatomical plausibility in medical image segmentation via
hybrid graph neural networks: applications to chest x-ray analysis [3.3382651833270587]
我々は、画像特徴符号化とグラフ畳み込みニューラルネットワーク(GCNN)の標準畳み込みを利用して、解剖学的構造の可塑性表現を復号するエンコーダデコーダニューラルアーキテクチャであるHybridGNetを紹介する。
新たなイメージ・ツー・グラフ・スキップ接続層により、標準的な畳み込みブロックからGCNNブロックへローカライズされた機能が流れ、セグメンテーションの精度が向上することを示す。
論文 参考訳(メタデータ) (2022-03-21T13:37:23Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - SAFRON: Stitching Across the Frontier for Generating Colorectal Cancer
Histology Images [2.486942181212742]
合成画像は、データの限られた可用性という文脈でディープラーニングアルゴリズムの開発と評価に使用することができる。
本研究では,現実的で高解像度な組織画像タイルを構築するための新しいSAFRONフレームワークを提案する。
提案手法は,比較的小さな画像パッチでトレーニングした後,任意の大きさのリアルな画像タイルを生成することができることを示す。
論文 参考訳(メタデータ) (2020-08-11T05:47:00Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - Gleason Grading of Histology Prostate Images through Semantic
Segmentation via Residual U-Net [60.145440290349796]
前立腺癌の最終診断は、病理学者による前立腺生検におけるGleasonパターンの視覚的検出に基づいている。
コンピュータ支援診断システムは、組織内のがんのパターンを分類し分類することができる。
この研究の方法論的核心は、がん組織を分節できる残留ブロックで修正された画像分割のためのU-Net畳み込みニューラルネットワークである。
論文 参考訳(メタデータ) (2020-05-22T19:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。