論文の概要: $μ$NeuFMT: Optical-Property-Adaptive Fluorescence Molecular Tomography via Implicit Neural Representation
- arxiv url: http://arxiv.org/abs/2511.04510v1
- Date: Thu, 06 Nov 2025 16:28:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.501946
- Title: $μ$NeuFMT: Optical-Property-Adaptive Fluorescence Molecular Tomography via Implicit Neural Representation
- Title(参考訳): $μ$NeuFMT: 入射神経表現による光品質適応蛍光分子トモグラフィ
- Authors: Shihan Zhao, Jianru Zhang, Yanan Wu, Linlin Li, Siyuan Shen, Xingjun Zhu, Guoyan Zheng, Jiahua Jiang, Wuwei Ren,
- Abstract要約: 蛍光分子線トモグラフィー(FMT)は、蛍光プローブの非侵襲的な3次元可視化技術として有望である。
我々は,暗黙的なニューラルベースシーン表現と光子伝播の明示的な物理モデリングを統合した自己教師型FMT再構成フレームワークである$mu$NeuFMTを提案する。
我々の研究は、堅牢で正確なFMT再構成のための新しいパラダイムを確立し、複雑な臨床関連シナリオにおけるより信頼性の高い分子イメージングの道を開く。
- 参考スコア(独自算出の注目度): 17.533721844205687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fluorescence Molecular Tomography (FMT) is a promising technique for non-invasive 3D visualization of fluorescent probes, but its reconstruction remains challenging due to the inherent ill-posedness and reliance on inaccurate or often-unknown tissue optical properties. While deep learning methods have shown promise, their supervised nature limits generalization beyond training data. To address these problems, we propose $\mu$NeuFMT, a self-supervised FMT reconstruction framework that integrates implicit neural-based scene representation with explicit physical modeling of photon propagation. Its key innovation lies in jointly optimize both the fluorescence distribution and the optical properties ($\mu$) during reconstruction, eliminating the need for precise prior knowledge of tissue optics or pre-conditioned training data. We demonstrate that $\mu$NeuFMT robustly recovers accurate fluorophore distributions and optical coefficients even with severely erroneous initial values (0.5$\times$ to 2$\times$ of ground truth). Extensive numerical, phantom, and in vivo validations show that $\mu$NeuFMT outperforms conventional and supervised deep learning approaches across diverse heterogeneous scenarios. Our work establishes a new paradigm for robust and accurate FMT reconstruction, paving the way for more reliable molecular imaging in complex clinically related scenarios, such as fluorescence guided surgery.
- Abstract(参考訳): 蛍光分子線トモグラフィー(FMT)は、蛍光プローブの非侵襲的な3次元可視化のための有望な手法であるが、その再構成は、不正確な、しばしば未知の組織光学特性に依存しているため、依然として困難である。
ディープラーニング手法は将来性を示しているが、教師付き性質は訓練データ以上の一般化を制限している。
これらの問題に対処するために、暗黙的なニューラルネットワークに基づくシーン表現と光子伝播の明示的な物理的モデリングを統合する自己教師型FMT再構成フレームワークである$\mu$NeuFMTを提案する。
その重要な革新は、再建中の蛍光分布と光学特性(\mu$)を共同で最適化することであり、組織光学やプレコンディショニングされたトレーニングデータの正確な知識は不要である。
重大な初期値(0.5$\times$から2$\times$)であっても、$\mu$NeuFMTは正確なフルオロフォア分布と光学係数を確実に回復することを示した。
広範囲な数値、幻、生体内検証により、$\mu$NeuFMTは、様々な異種シナリオにわたる従来の、および教師付きディープラーニングアプローチより優れていることが示されている。
我々の研究は、蛍光ガイド下手術のような複雑な臨床シナリオにおいて、より信頼性の高い分子イメージングを行うための、堅牢で正確なFMT再構成のための新しいパラダイムを確立する。
関連論文リスト
- Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - MDiff-FMT: Morphology-aware Diffusion Model for Fluorescence Molecular Tomography with Small-scale Datasets [29.920562899648985]
蛍光分子トモグラフィー (FMT) は、生体医学研究に広く用いられている感度光学イメージング技術である。
逆問題により、FMT再建に大きな課題が生じる。
拡散確率モデル(DDPM)に基づくMDiff-FMT(MDiff-FMT)を初めて報告し,高忠実な形態的再構成を実現する。
論文 参考訳(メタデータ) (2024-10-09T10:41:31Z) - Neurovascular Segmentation in sOCT with Deep Learning and Synthetic Training Data [4.5276169699857505]
本研究は, 連続断面光コヒーレンストモグラフィー画像における神経血管セグメンテーションのための合成エンジンについて述べる。
提案手法は,ラベル合成とラベル・ツー・イメージ変換の2段階からなる。
前者の有効性を,より現実的なトレーニングラベルの集合と比較し,後者を合成ノイズと人工物モデルのアブレーション研究により実証した。
論文 参考訳(メタデータ) (2024-07-01T16:09:07Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - Fluctuation-based deconvolution in fluorescence microscopy using
plug-and-play denoisers [2.236663830879273]
蛍光顕微鏡で得られた生きた試料の画像の空間分解能は、可視光の回折により物理的に制限される。
この制限を克服するために、いくつかのデコンボリューションと超解像技術が提案されている。
論文 参考訳(メタデータ) (2023-03-20T15:43:52Z) - Retinexformer: One-stage Retinex-based Transformer for Low-light Image
Enhancement [96.09255345336639]
低照度画像の高精細化のために,原理化された1段Retinex-based Framework (ORF) を定式化する。
ORFはまず照明情報を推定し、低照度画像を照らす。
我々のアルゴリズムであるRetinexformerは13のベンチマークで最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-12T16:54:08Z) - DeStripe: A Self2Self Spatio-Spectral Graph Neural Network with Unfolded
Hessian for Stripe Artifact Removal in Light-sheet Microscopy [40.223974943121874]
本稿では,光シート蛍光顕微鏡(LSFM)におけるDeStripeと呼ばれるブラインドアーティファクト除去アルゴリズムを提案する。
DeStripeは、一方向のアーティファクトと前景の画像の構造的差異を利用して、潜在的に破損した係数をローカライズする。
影響された係数をグラフニューラルネットワークに入力して、標準画像空間の構造が十分に保存されていることを保証するために、ヘッセン正規化をアンロールした状態でリカバリすることができる。
論文 参考訳(メタデータ) (2022-06-27T16:13:57Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Data-driven generation of plausible tissue geometries for realistic
photoacoustic image synthesis [53.65837038435433]
光音響トモグラフィ(pat)は形態的および機能的組織特性を回復する可能性がある。
我々は,PATデータシミュレーションの新たなアプローチを提案し,これを「シミュレーションの学習」と呼ぶ。
我々は、意味的注釈付き医療画像データに基づいて訓練されたGAN(Generative Adversarial Networks)の概念を活用して、可塑性組織ジオメトリを生成する。
論文 参考訳(メタデータ) (2021-03-29T11:30:18Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。