論文の概要: Schrödinger Diffusion Driven Signal Recovery in 3T BOLD fMRI Using Unmatched 7T Observations
- arxiv url: http://arxiv.org/abs/2504.01004v2
- Date: Tue, 13 May 2025 05:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 16:45:08.840731
- Title: Schrödinger Diffusion Driven Signal Recovery in 3T BOLD fMRI Using Unmatched 7T Observations
- Title(参考訳): 未整合7T観測による3TBOLD fMRIにおけるシュレーディンガー拡散駆動信号の回復
- Authors: Yujian Xiong, Xuanzhao Dong, Sebastian Waz, Wenhui Zhu, Negar Mallak, Zhong-lin Lu, Yalin Wang,
- Abstract要約: 本稿では,3T BOLD fMRI 取得の品質向上を目的とした新しい計算手法を提案する。
我々は、軽量で教師なしのSchr"odinger Bridgeフレームワークを使用して、3Tデータの高SNR、高解像度のデータを推測する。
以上の結果から,標準的な3T取得から7Tレベルの品質を計算的に近似することが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 1.8091533096543726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultra-high-field (7 Tesla) BOLD fMRI offers exceptional detail in both spatial and temporal domains, along with robust signal-to-noise characteristics, making it a powerful modality for studying visual information processing in the brain. However, due to the limited accessibility of 7T scanners, the majority of neuroimaging studies are still conducted using 3T systems, which inherently suffer from reduced fidelity in both resolution and SNR. To mitigate this limitation, we introduce a new computational approach designed to enhance the quality of 3T BOLD fMRI acquisitions. Specifically, we project both 3T and 7T datasets, sourced from different individuals and experimental setups, into a shared low-dimensional representation space. Within this space, we employ a lightweight, unsupervised Schr\"odinger Bridge framework to infer a high-SNR, high-resolution counterpart of the 3T data, without relying on paired supervision. This methodology is evaluated across multiple fMRI retinotopy datasets, including synthetically generated samples, and demonstrates a marked improvement in the reliability and fit of population receptive field (pRF) models applied to the enhanced 3T outputs. Our findings suggest that it is feasible to computationally approximate 7T-level quality from standard 3T acquisitions.
- Abstract(参考訳): 超高磁場(7テスラ)のBOLD fMRIは、空間的領域と時間的領域の両方において、頑健な信号対雑音特性とともに例外的な詳細を提供しており、脳内の視覚情報処理を研究するための強力なモダリティとなっている。
しかし、7Tスキャナーのアクセシビリティが制限されているため、ニューロイメージング研究の大部分は、分解能とSNRの両方の忠実度を低下させる3Tシステムを用いて行われている。
この制限を緩和するために,3T BOLD fMRI 取得の品質向上を目的とした新しい計算手法を提案する。
具体的には、異なる個人と実験的なセットアップから得られた3Tデータセットと7Tデータセットの両方を、共有低次元表現空間に投影する。
この空間内では、軽量で教師なしのSchr\"odinger Bridgeフレームワークを使用して、3Tデータの高SNRで高解像度なデータを、ペアの監視に頼ることなく推測する。
本手法は, 合成試料を含む複数のfMRIレチノトピーデータセットを用いて評価し, 強化された3T出力に適用された集団受容野モデル(pRF)の信頼性と適合性を顕著に向上することを示した。
以上の結果から,標準的な3T取得から7Tレベルの品質を計算的に近似することが可能であることが示唆された。
関連論文リスト
- Parameter-Efficient Fine-Tuning of 3D DDPM for MRI Image Generation Using Tensor Networks [23.30947697113457]
3次元U-Netを用いた拡散確率モデル(DDPM)におけるパラメータ効率細調整(PEFT)の課題に対処する。
本研究では,3次元畳み込みバックボーンを有するDDPMを微調整するための新しいPEFT手法であるTenVOOを提案する。
この結果から, マルチスケール類似度指標(MS-SSIM)において, TenVOO が最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2025-07-24T05:51:51Z) - Converting T1-weighted MRI from 3T to 7T quality using deep learning [7.220190703291239]
超高分解能 7 tesla (7T) 磁気共鳴画像(MRI)は、詳細な解剖学的見解を提供する。
3T脳MRIから7T脳MRIを合成するための高度なディープラーニングモデルを提案する。
画像ベース評価尺度では,最先端の3T-to-7Tモデルが2つのモデルより優れていた。
論文 参考訳(メタデータ) (2025-07-18T09:54:59Z) - Real-IAD D3: A Real-World 2D/Pseudo-3D/3D Dataset for Industrial Anomaly Detection [53.2590751089607]
Real-IAD D3は高精度なマルチモーダルデータセットであり、フォトメトリックステレオによって生成された擬似3Dモダリティが組み込まれている。
本稿では,RGB,点雲,擬似3次元深度情報を統合し,各モードの相補的強度を活用する効果的な手法を提案する。
本実験は,検出の堅牢性向上とIAD全体の性能向上におけるこれらのモダリティの重要性を強調した。
論文 参考訳(メタデータ) (2025-04-19T08:05:47Z) - MRI Reconstruction with Regularized 3D Diffusion Model (R3DM) [2.842800539489865]
正規化3次元拡散モデルと最適化手法を組み合わせた3次元MRI再構成法を提案する。
拡散に基づく事前処理を取り入れることで,画像品質の向上,ノイズの低減,3次元MRI再構成の全体的な忠実度の向上を実現した。
論文 参考訳(メタデータ) (2024-12-25T00:55:05Z) - Unsupervised Multi-Parameter Inverse Solving for Reducing Ring Artifacts in 3D X-Ray CBCT [35.73129314731503]
リングアーティファクトは、X線検出器の非理想的応答により、3DコーンビームCT(CBCT)で一般的である。
現在の最先端(SOTA)リングアーティファクトリダクション(RAR)アルゴリズムは、教師あり学習のための広範なペアCTサンプルに依存している。
マルチパラメータ逆問題として3次元CBCT RARを定式化した教師なしの textbfRiner を導入する。
論文 参考訳(メタデータ) (2024-12-08T08:22:58Z) - SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - Benchmarking 3D multi-coil NC-PDNet MRI reconstruction [2.5195203844628558]
入力チャネル数が異なる圧縮データに基づいてトレーニングされた非カルテシアンプリマルデュアルネットワーク(NC-PDNet)は、1mm等方性32チャネル全体脳3D再構成に対して平均PSNR42.98dBを達成する。
推測時間は4.95秒,GPUメモリ使用量は5.49GBであり,臨床研究への応用に有意な可能性を示唆している。
論文 参考訳(メタデータ) (2024-11-08T09:14:36Z) - M3DM-NR: RGB-3D Noisy-Resistant Industrial Anomaly Detection via Multimodal Denoising [63.39134873744748]
既存の産業異常検出手法は主に、原始RGB画像を用いた教師なし学習に重点を置いている。
本稿では,CLIPの強力なマルチモーダル識別機能を利用する新しい耐雑音性M3DM-NRフレームワークを提案する。
M3DM-NRは3D-RGBマルチモーダルノイズ異常検出において最先端の手法より優れていた。
論文 参考訳(メタデータ) (2024-06-04T12:33:02Z) - Reconstructing Retinal Visual Images from 3T fMRI Data Enhanced by Unsupervised Learning [2.1597860906272803]
GAN(unsupervised Generative Adversarial Network)を通して3T fMRIデータを生成する新しいフレームワークを提案する。
本稿では,3T fMRIデータの再構成能力を実証し,優れた入力画像を生成する能力を強調した。
論文 参考訳(メタデータ) (2024-04-07T23:31:37Z) - 7T MRI Synthesization from 3T Acquisitions [1.1549572298362787]
改良されたディープラーニング技術は、3T MRI入力から合成された7T MRIを生成するために使用できる。
本稿では,V-Net畳み込みニューラルネットワークのカスタム設計版に基づく,新しい7T合成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-13T22:06:44Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Transferring Ultrahigh-Field Representations for Intensity-Guided Brain
Segmentation of Low-Field Magnetic Resonance Imaging [51.92395928517429]
7T MRIの使用は、低磁場MRIと比較して高コストでアクセシビリティが低いため制限されている。
本研究では,入力されたLF磁気共鳴特徴表現と,脳画像分割タスクのための7T様特徴表現とを融合したディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-13T12:21:06Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z) - Searching Collaborative Agents for Multi-plane Localization in 3D
Ultrasound [59.97366727654676]
3D超音波(US)はその豊富な診断情報、可搬性、低コストのために広く用いられている。
米国における標準平面(SP)のローカライゼーションは,効率の向上とユーザ依存の低減だけでなく,米国における3D解釈の促進にも寄与する。
本稿では,複数の子宮SPを同時に3D USにローカライズするマルチエージェント強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:23:55Z) - Towards a Competitive End-to-End Speech Recognition for CHiME-6 Dinner
Party Transcription [73.66530509749305]
本稿では,難しい場合であっても,ハイブリッドベースラインに近い性能を示すエンドツーエンドアプローチについて論じる。
CTC-Attention と RNN-Transducer のアプローチと RNN と Transformer のアーキテクチャを比較し,解析する。
RNN-Transducerをベースとしたベストエンド・ツー・エンドモデルでは、ビームサーチの改善とともに、LF-MMI TDNN-F CHiME-6 Challengeのベースラインよりも品質が3.8%向上した。
論文 参考訳(メタデータ) (2020-04-22T19:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。