論文の概要: Virtual staining for 3D X-ray histology of bone implants
- arxiv url: http://arxiv.org/abs/2509.09235v1
- Date: Thu, 11 Sep 2025 08:14:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.287493
- Title: Virtual staining for 3D X-ray histology of bone implants
- Title(参考訳): 骨インプラントの3次元X線組織学における仮想染色
- Authors: Sarah C. Irvine, Christian Lucas, Diana Krüger, Bianca Guedert, Julian Moosmann, Berit Zeller-Plumhoff,
- Abstract要約: 3次元X線組織学技術は、従来の2次元組織学に代わる非侵襲的な方法を提供する。
ディープラーニングに基づく仮想染色は、ラベルのない光学画像から染色された外観をシミュレートするのに有用である。
この研究は3次元X線画像に仮想染色を導入し、化学的に有意でラベルのない組織の特徴付けのためのスケーラブルな経路を提供する。
- 参考スコア(独自算出の注目度): 2.4922739987890767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Three-dimensional X-ray histology techniques offer a non-invasive alternative to conventional 2D histology, enabling volumetric imaging of biological tissues without the need for physical sectioning or chemical staining. However, the inherent greyscale image contrast of X-ray tomography limits its biochemical specificity compared to traditional histological stains. Within digital pathology, deep learning-based virtual staining has demonstrated utility in simulating stained appearances from label-free optical images. In this study, we extend virtual staining to the X-ray domain by applying cross-modality image translation to generate artificially stained slices from synchrotron-radiation-based micro-CT scans. Using over 50 co-registered image pairs of micro-CT and toluidine blue-stained histology from bone-implant samples, we trained a modified CycleGAN network tailored for limited paired data. Whole slide histology images were downsampled to match the voxel size of the CT data, with on-the-fly data augmentation for patch-based training. The model incorporates pixelwise supervision and greyscale consistency terms, producing histologically realistic colour outputs while preserving high-resolution structural detail. Our method outperformed Pix2Pix and standard CycleGAN baselines across SSIM, PSNR, and LPIPS metrics. Once trained, the model can be applied to full CT volumes to generate virtually stained 3D datasets, enhancing interpretability without additional sample preparation. While features such as new bone formation were able to be reproduced, some variability in the depiction of implant degradation layers highlights the need for further training data and refinement. This work introduces virtual staining to 3D X-ray imaging and offers a scalable route for chemically informative, label-free tissue characterisation in biomedical research.
- Abstract(参考訳): 三次元X線組織学技術は、従来の2次元組織学に代わる非侵襲的な代替手段を提供し、物理的切断や化学染色を必要とせずに生体組織の体積像化を可能にする。
しかしながら、X線トモグラフィーの固有のグレースケール画像コントラストは、従来の組織染色と比較して、その生化学的特異性を制限する。
デジタル病理学において、ディープラーニングに基づく仮想染色は、ラベルのない光学画像から染色された外観をシミュレートする有用性を示した。
本研究では, シンクロトロン放射光を用いたマイクロCTスキャンから人工染色スライスを生成するために, クロスモダリティ画像変換を適用することで, 仮想染色をX線領域に拡張する。
骨移植標本からマイクロCTとトルイジンブルー染色組織を50枚以上併用し, 限られたペアデータに適合した改良CycleGANネットワークを訓練した。
全スライドヒストロジー画像はCTデータのボクセルサイズに合わせて縮小され、パッチベースのトレーニングのためのオンザフライデータ拡張が行われた。
このモデルはピクセル単位での監督とグレースケールの一貫性の用語を取り入れ、高解像度の構造的詳細を保ちながら、組織学的に現実的な色出力を生成する。
提案手法は,SSIM,PSNR,LPIPS測定値間でPix2Pixおよび標準CycleGANベースラインよりも優れていた。
トレーニングが完了すると、モデルをフルCTボリュームに適用して仮想的に染色された3Dデータセットを生成し、追加のサンプル準備なしで解釈性を高めることができる。
新しい骨形成のような特徴は再現できたが、インプラントの劣化層の描写のいくつかのバリエーションは、さらなるトレーニングデータと改善の必要性を強調している。
この研究は3次元X線画像に仮想染色を導入し、生医学研究において化学的に有意義でラベルのない組織の特徴付けのためのスケーラブルな経路を提供する。
関連論文リスト
- PixCell: A generative foundation model for digital histopathology images [49.00921097924924]
PixCellは,病理組織学における最初の拡散ベース生成基盤モデルである。
われわれはPanCan-30MでPixCellをトレーニングした。
論文 参考訳(メタデータ) (2025-06-05T15:14:32Z) - FCDM: A Physics-Guided Bidirectional Frequency Aware Convolution and Diffusion-Based Model for Sinogram Inpainting [14.043383277622874]
フルビューのシノグラムは高い放射線線量と長いスキャン時間を必要とする。
スパースビューCTは、この負担を軽減するが、構造的な信号損失を伴う不完全なシノグラムを生じる。
本研究では,Ninogram に適した拡散型フレームワークであるmodelnameを提案する。
論文 参考訳(メタデータ) (2024-08-26T12:31:38Z) - Single color digital H&E staining with In-and-Out Net [0.8271394038014485]
本稿では,仮想染色タスクに特化して設計された新しいネットワークIn-and-Out Netを提案する。
我々はGAN(Generative Adversarial Networks)に基づいて,反射共焦点顕微鏡(RCM)画像からヘマトキシリンおよびエオシン染色画像へ効率的に変換する。
論文 参考訳(メタデータ) (2024-05-22T01:17:27Z) - SdCT-GAN: Reconstructing CT from Biplanar X-Rays with Self-driven
Generative Adversarial Networks [6.624839896733912]
本稿では,3次元CT画像の再構成のための自己駆動型生成対向ネットワークモデル(SdCT-GAN)を提案する。
識別器に新しいオートエンコーダ構造を導入することにより、画像の詳細により多くの注意を払っている。
LPIPS評価基準は,既存画像よりも微細な輪郭やテクスチャを定量的に評価できる。
論文 参考訳(メタデータ) (2023-09-10T08:16:02Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Extremely weakly-supervised blood vessel segmentation with
physiologically based synthesis and domain adaptation [7.107236806113722]
腎機能の正確な解析とモデリングには、腎血管の正確なセグメンテーションが必要である。
ディープラーニングに基づく手法は、自動血管セグメンテーションにおける最先端のパフォーマンスを示している。
人工腎血管を生理的にシミュレートし,無ラベルスキャンで生成モデルを訓練する。
本モデルは,ラット腎の3次元微小CTスキャンと2次元網膜画像における概念実証実験の両方において,血管を直接スキャンし,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-05-26T16:01:49Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。