論文の概要: Nexus-INR: Diverse Knowledge-guided Arbitrary-Scale Multimodal Medical Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2508.03073v1
- Date: Tue, 05 Aug 2025 04:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.778517
- Title: Nexus-INR: Diverse Knowledge-guided Arbitrary-Scale Multimodal Medical Image Super-Resolution
- Title(参考訳): Nexus-INR: 多様な知識誘導型任意規模のマルチモーダル医用画像スーパーリゾリューション
- Authors: Bo Zhang, JianFei Huo, Zheng Zhang, Wufan Wang, Hui Gao, Xiangyang Gong, Wendong Wang,
- Abstract要約: 任意分解能超解像は、多様な空間分解能に適応することにより、医用画像解析に重要な柔軟性を提供する。
従来のCNNベースの手法は、基本的にARSRには適さない。
高品質で適応性のある医用画像の超高解像度化を実現するために,様々な情報と下流タスクを利用する多言語知識誘導ARSRフレームワークであるNexus-INRを提案する。
- 参考スコア(独自算出の注目度): 14.992795611397579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arbitrary-resolution super-resolution (ARSR) provides crucial flexibility for medical image analysis by adapting to diverse spatial resolutions. However, traditional CNN-based methods are inherently ill-suited for ARSR, as they are typically designed for fixed upsampling factors. While INR-based methods overcome this limitation, they still struggle to effectively process and leverage multi-modal images with varying resolutions and details. In this paper, we propose Nexus-INR, a Diverse Knowledge-guided ARSR framework, which employs varied information and downstream tasks to achieve high-quality, adaptive-resolution medical image super-resolution. Specifically, Nexus-INR contains three key components. A dual-branch encoder with an auxiliary classification task to effectively disentangle shared anatomical structures and modality-specific features; a knowledge distillation module using cross-modal attention that guides low-resolution modality reconstruction with high-resolution reference, enhanced by self-supervised consistency loss; an integrated segmentation module that embeds anatomical semantics to improve both reconstruction quality and downstream segmentation performance. Experiments on the BraTS2020 dataset for both super-resolution and downstream segmentation demonstrate that Nexus-INR outperforms state-of-the-art methods across various metrics.
- Abstract(参考訳): 任意分解能超解像(ARSR)は、多様な空間分解能に適応することにより、医療画像解析に重要な柔軟性を提供する。
しかし、従来のCNNベースの手法は基本的にARSRには適していない。
INRベースの手法はこの制限を克服する一方で、様々な解像度と詳細を持つマルチモーダル画像の効率的な処理と利用に苦慮している。
本稿では,Nexus-INRを提案する。Nexus-INRは多種多様な情報と下流タスクを用いて,高品質で適応性の高い医用画像の超高解像度化を実現するためのフレームワークである。
具体的には、Nexus-INRには3つの重要なコンポーネントが含まれている。
解剖学的構造とモダリティ固有の特徴を効果的に切り離す補助的分類タスクを有する二重ブランチエンコーダ、高解像度参照で低解像度のモダリティ再構成を誘導するクロスモーダルアテンションを用いた知識蒸留モジュール、そして、解剖学的セグメンティクスを組み込んで再構成品質と下流セグメンテーション性能を両立させる統合セグメンテーションモジュール。
スーパーレゾリューションとダウンストリームセグメンテーションの両方のためのBraTS2020データセットの実験では、Nexus-INRがさまざまなメトリクスの最先端メソッドより優れていることが示されている。
関連論文リスト
- Multimodal Causal-Driven Representation Learning for Generalizable Medical Image Segmentation [56.52520416420957]
医用画像セグメンテーションにおける領域一般化に取り組むために, MCDRL(Multimodal Causal-Driven Representation Learning)を提案する。
MCDRLは競合する手法より一貫して優れ、セグメンテーション精度が優れ、堅牢な一般化性を示す。
論文 参考訳(メタデータ) (2025-08-07T03:41:41Z) - RARE-UNet: Resolution-Aligned Routing Entry for Adaptive Medical Image Segmentation [0.0]
本稿では,入力の空間分解能にその推論経路を適応させる,分解能を考慮したマルチスケールセグメンテーションアーキテクチャを提案する。
RARE-UNetは、海馬と腫瘍のセグメンテーションのための2つのベンチマーク脳イメージングタスクでテストされている。
本モデルでは,高精細度における平均Diceスコアが0.84と0.65であり,一貫した性能を維持しつつ,低精細度での推論時間を著しく短縮する。
論文 参考訳(メタデータ) (2025-07-21T11:49:20Z) - Decoupling Multi-Contrast Super-Resolution: Pairing Unpaired Synthesis with Implicit Representations [6.255537948555454]
マルチコントラスト・スーパーリゾリューション技術は、低解像度のコントラストの品質を高めることができる。
既存のMCSRメソッドは、しばしば固定解像度の設定を前提としており、すべて大きな完全にペアのトレーニングデータセットを必要とする。
本稿では,ペア化トレーニングデータの必要性を排除し,任意のアップスケーリングをサポートするモジュール型マルチコントラスト超解法フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-09T07:48:52Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Learning Resolution-Adaptive Representations for Cross-Resolution Person
Re-Identification [49.57112924976762]
低解像度(LR)クエリIDイメージと高解像度(HR)ギャラリーイメージとの整合性を実現する。
実際のカメラとの違いにより、クエリ画像が分解能の低下に悩まされることがしばしばあるため、これは困難かつ実用的な問題である。
本稿では,問合せ画像の解像度に適応する動的計量を用いて,HRとLRの画像を直接比較するためのSRフリーなパラダイムについて検討する。
論文 参考訳(メタデータ) (2022-07-09T03:49:51Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Multimodal-Boost: Multimodal Medical Image Super-Resolution using
Multi-Attention Network with Wavelet Transform [5.416279158834623]
対応する画像分解能の喪失は、医用画像診断の全体的な性能を低下させる。
ディープラーニングベースのシングルイメージスーパーレゾリューション(SISR)アルゴリズムは、全体的な診断フレームワークに革命をもたらした。
本研究は,低周波データから高頻度情報を学習する深層マルチアテンションモジュールを用いたGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:13:46Z) - SRR-Net: A Super-Resolution-Involved Reconstruction Method for High
Resolution MR Imaging [7.42807471627113]
提案するsrr-netは、視覚品質と知覚品質の両方の高分解能脳画像を復元することができる。
In-vivo HR Multi-coil 脳データを用いた実験の結果,提案したSRR-Netは高分解能脳画像の復元が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-04-13T02:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。