論文の概要: HistoSpeckle-Net: Mutual Information-Guided Deep Learning for high-fidelity reconstruction of complex OrganAMNIST images via perturbed Multimode Fibers
- arxiv url: http://arxiv.org/abs/2511.20245v1
- Date: Tue, 25 Nov 2025 12:20:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.447054
- Title: HistoSpeckle-Net: Mutual Information-Guided Deep Learning for high-fidelity reconstruction of complex OrganAMNIST images via perturbed Multimode Fibers
- Title(参考訳): HistoSpeckle-Net: Mutual Information-Guided Deep Learning for High-fidelity reconstruction of Complex OrganAMNIST images through perturbed Multimode Fibers (特集:情報ネットワーク)
- Authors: Jawaria Maqbool, M. Imran Cheema,
- Abstract要約: HistoSpeckle-Netは、MMFスペックルから構造的にリッチな医用画像を再構成するために設計されたディープラーニングアーキテクチャである。
複雑なOrganAMNISTデータセットに対する実験により,HistoSpeckle-Netはベースラインモデルよりも高い忠実性が得られることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deep learning methods in multimode fiber (MMF) imaging often focus on simpler datasets, limiting their applicability to complex, real-world imaging tasks. These models are typically data-intensive, a challenge that becomes more pronounced when dealing with diverse and complex images. In this work, we propose HistoSpeckle-Net, a deep learning architecture designed to reconstruct structurally rich medical images from MMF speckles. To build a clinically relevant dataset, we develop an optical setup that couples laser light through a spatial light modulator (SLM) into an MMF, capturing output speckle patterns corresponding to input OrganAMNIST images. Unlike previous MMF imaging approaches, which have not considered the underlying statistics of speckles and reconstructed images, we introduce a distribution-aware learning strategy. We employ a histogram-based mutual information loss to enhance model robustness and reduce reliance on large datasets. Our model includes a histogram computation unit that estimates smooth marginal and joint histograms for calculating mutual information loss. It also incorporates a unique Three-Scale Feature Refinement Module, which leads to multiscale Structural Similarity Index Measure (SSIM) loss computation. Together, these two loss functions enhance both the structural fidelity and statistical alignment of the reconstructed images. Our experiments on the complex OrganAMNIST dataset demonstrate that HistoSpeckle-Net achieves higher fidelity than baseline models such as U-Net and Pix2Pix. It gives superior performance even with limited training samples and across varying fiber bending conditions. By effectively reconstructing complex anatomical features with reduced data and under fiber perturbations, HistoSpeckle-Net brings MMF imaging closer to practical deployment in real-world clinical environments.
- Abstract(参考訳): 既存のマルチモードファイバ(MMF)イメージングのディープラーニング手法は、多くの場合、より単純なデータセットに焦点を合わせ、複雑な実世界のイメージングタスクに適用性を制限する。
これらのモデルは典型的にはデータ集約型であり、多様な複雑な画像を扱う際により顕著になる。
本研究では,MMFスペックルから構造的にリッチな医用画像の再構成を目的としたディープラーニングアーキテクチャであるHistoSpeckle-Netを提案する。
臨床的に関連のあるデータセットを構築するために,空間光変調器(SLM)を介して光をMMFに結合し,入力されたOrganAMNIST画像に対応する出力スペックルパターンをキャプチャする光学装置を開発した。
スペックルや再構成画像の基盤となる統計を考慮していない従来のMMFイメージング手法とは異なり、分布認識型学習戦略を導入する。
我々は、モデルロバスト性を高め、大規模なデータセットへの依存を減らすために、ヒストグラムに基づく相互情報損失を用いる。
我々のモデルには, 相互情報損失を計算するためのスムーズな辺縁と関節のヒストグラムを推定するヒストグラム計算ユニットが含まれている。
また、SSIM(Multiscale Structure similarity Index Measure)損失計算に繋がる、ユニークな3スケール特徴リファインメントモジュールも組み込まれている。
これら2つの損失関数は、再構成された画像の構造的忠実度と統計的アライメントの両方を高める。
複雑なOrganAMNISTデータセットに対する実験により、HistoSpeckle-NetはU-NetやPix2Pixのようなベースラインモデルよりも高い忠実性が得られることが示された。
限られたトレーニングサンプルや様々な繊維曲げ条件でも優れた性能を発揮する。
HistoSpeckle-Netは、データ削減と繊維の摂動で複雑な解剖学的特徴を効果的に再構築することで、実世界の臨床環境での実践的な展開に近づいたMMF画像を提供する。
関連論文リスト
- MMIF-AMIN: Adaptive Loss-Driven Multi-Scale Invertible Dense Network for Multimodal Medical Image Fusion [3.507349476832754]
MMIF(Multimodal Medical Image fusion)は、様々なモダリティの画像を統合して総合的な画像を作成することを目的としている。
複数のモダリティにまたがるユニークな情報と相補的な情報を同時に取得することは、MMIFにおける重要な研究課題である。
本稿では,これらの特徴を効果的に抽出できる新しいアーキテクチャを特徴とする新しい画像融合手法MMIF-AMINを提案する。
論文 参考訳(メタデータ) (2025-08-12T06:55:38Z) - Ordered-subsets Multi-diffusion Model for Sparse-view CT Reconstruction [11.453288952345801]
スパースビューCT再構成のための順序付きサブセット多重拡散モデル(OSMM)を提案する。
OSMMはCTプロジェクションデータを等しいサブセットに分割し、各サブセットから独立して学習するためにマルチサブセット拡散モデル(MSDM)を用いる。
以上の結果から,OSMMは画像品質や雑音耐性の点で従来の拡散モデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-15T05:50:35Z) - Multi-Scale Target-Aware Representation Learning for Fundus Image Enhancement [11.652205644265893]
高品質の眼底画像は、臨床検診や眼科疾患の診断に欠かせない解剖学的情報を提供する。
近年は、眼底画像の強化が有望な進展をみせている。
本稿では,効率的なファンドス画像強調のためのMTRL-FIE(Multi-scale target-aware representation learning framework)を提案する。
論文 参考訳(メタデータ) (2025-05-03T14:25:48Z) - Physics-Driven Autoregressive State Space Models for Medical Image Reconstruction [5.208643222679356]
本研究では,高忠実かつ効率的な画像再構成のための物理駆動自己回帰状態空間モデル(SSM)であるMambaRollを提案する。
MambaRollは、各カスケードが粗いスケールの表現でより微細な特徴マップを自動回帰予測するアンロールアーキテクチャを採用している。
MambaRoll は最新 CNN 法, Transformer- 法, SSM 法を常に上回っている。
論文 参考訳(メタデータ) (2024-12-12T14:59:56Z) - MRNet: Multifaceted Resilient Networks for Medical Image-to-Image Translation [1.9384004397336387]
我々は,MRI-to-CTおよびMRI-to-MRI変換における最先端の手法より優れた医用画像・画像翻訳のための新しいアーキテクチャを提案する。
このアーキテクチャは、強力なSAMイメージエンコーダを使用して、多様なデータセットから包括的なマルチスケール特徴を抽出し、解像度認識機能融合を実行する。
論文 参考訳(メタデータ) (2024-12-04T05:23:46Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Multi-institutional Collaborations for Improving Deep Learning-based
Magnetic Resonance Image Reconstruction Using Federated Learning [62.17532253489087]
深層学習法はmr画像再構成において優れた性能をもたらすことが示されている。
これらの方法は、高い取得コストと医療データプライバシー規制のために収集および共有が困難である大量のデータを必要とします。
我々は,異なる施設で利用可能なmrデータを活用し,患者のプライバシーを保ちながら,連合学習(fl)ベースのソリューションを提案する。
論文 参考訳(メタデータ) (2021-03-03T03:04:40Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。