論文の概要: Super-Resolution Multi-Contrast Unbiased Eye Atlases With Deep
Probabilistic Refinement
- arxiv url: http://arxiv.org/abs/2401.03060v1
- Date: Fri, 5 Jan 2024 20:32:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:48:44.192819
- Title: Super-Resolution Multi-Contrast Unbiased Eye Atlases With Deep
Probabilistic Refinement
- Title(参考訳): 超高分解能マルチコントラスト非バイアスアイアトラスと高確率精細化
- Authors: Ho Hin Lee, Adam M. Saunders, Michael E. Kim, Samuel W. Remedios,
Yucheng Tang, Qi Yang, Xin Yu, Shunxing Bao, Chloe Cho, Louise A. Mawn, Tonia
S. Rex, Kevin L. Schey, Blake E. Dewey, Jeffrey M. Spraggins, Jerry L.
Prince, Yuankai Huo, and Bennett A. Landman
- Abstract要約: 眼の形態は、特に眼窩と視神経において、個体群によって大きく異なる。
本稿では,高分解能不偏眼アトラスの創製法を提案する。
- 参考スコア(独自算出の注目度): 18.800471212277017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye morphology varies significantly across the population, especially for the
orbit and optic nerve. These variations limit the feasibility and robustness of
generalizing population-wise features of eye organs to an unbiased spatial
reference. To tackle these limitations, we propose a process for creating
high-resolution unbiased eye atlases. First, to restore spatial details from
scans with a low through-plane resolution compared to a high in-plane
resolution, we apply a deep learning-based super-resolution algorithm. Then, we
generate an initial unbiased reference with an iterative metric-based
registration using a small portion of subject scans. We register the remaining
scans to this template and refine the template using an unsupervised deep
probabilistic approach that generates a more expansive deformation field to
enhance the organ boundary alignment. We demonstrate this framework using
magnetic resonance images across four different MRI tissue contrasts,
generating four atlases in separate spatial alignments. For each tissue
contrast, we find a significant improvement in the average Dice score across
four labeled regions compared to a standard registration framework consisting
of rigid, affine, and deformable transformations. These results highlight the
effective alignment of eye organs and boundaries using our proposed process. By
combining super-resolution preprocessing and deep probabilistic models, we
address the challenge of generating an eye atlas to serve as a standardized
reference across a largely variable population.
- Abstract(参考訳): 眼の形態は、特に軌道と視神経において、個体群によって大きく異なる。
これらの変化は、眼器官の集団的特徴を非バイアス空間参照に一般化する可能性と堅牢性を制限する。
これらの制約に対処するため,高分解能非偏眼アトラスの作成プロセスを提案する。
まず,高平面解像度に比べて低分解能のスキャンから空間的詳細を復元するため,深層学習に基づく超解像アルゴリズムを適用した。
そして、少数の被験者スキャンを用いて、反復的メートル法に基づく登録による初期偏見のない参照を生成する。
残りのスキャンをこのテンプレートに登録し, 臓器境界アライメントを高めるために, より拡張的な変形場を生成する教師なしの深い確率的アプローチを用いてテンプレートを改良する。
4種類のMRI組織コントラストの磁気共鳴画像を用いて,4つのアトラスを別々の空間アライメントで生成する。
各組織造影では, 硬質, アフィンおよび変形性変換からなる標準登録フレームワークと比較して, 4つのラベル付き領域の平均Diceスコアが有意に向上した。
これらの結果は,提案手法を用いた眼器官と境界の効果的なアライメントを強調する。
超解像前処理モデルと深層確率モデルを組み合わせることで、眼のアトラスを生成するという課題に対処し、大まかに変化する集団の標準基準として機能する。
関連論文リスト
- Unpaired Optical Coherence Tomography Angiography Image Super-Resolution
via Frequency-Aware Inverse-Consistency GAN [6.717440708401628]
本稿では,GANに基づくOCTA画像の非ペア化超解像法を提案する。
また,再構成画像の正確なスペクトル化を容易にするため,識別器の周波数認識による逆方向の損失も提案する。
実験により,本手法は,他の最先端の未経験手法よりも定量的,視覚的に優れていることが示された。
論文 参考訳(メタデータ) (2023-09-29T14:19:51Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - SuperMask: Generating High-resolution object masks from multi-view,
unaligned low-resolution MRIs [0.8074019565026543]
高分解能等方性MRIはまれであり、典型的なMRIは異方性であり、外面次元ははるかに低解像度である。
複数の低解像度画像から高解像度マスクを生成するための弱教師付きディープラーニングベースのソリューションを提案する。
論文 参考訳(メタデータ) (2023-03-13T23:09:51Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - GAN-based Super-Resolution and Segmentation of Retinal Layers in Optical
coherence tomography Scans [13.016298207860974]
網膜層のCTスキャンの超高分解能化とセグメンテーションのためのGAN(Generative Adversarial Network)ベースのソリューションを提案する。
GANに基づくセグメンテーションモデルと、人気のあるネットワーク、すなわちU-NetとResNetをGANアーキテクチャに組み込んだ評価を行う。
我々の最良のモデル構成は、Dice係数 0.867 と mIOU 0.765 を実証的に達成した。
論文 参考訳(メタデータ) (2022-06-28T03:53:40Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Automatic Diagnosis of Malaria from Thin Blood Smear Images using Deep
Convolutional Neural Network with Multi-Resolution Feature Fusion [0.7310043452300736]
薄い血液スミア画像からマラリアを迅速に診断するためのエンドツーエンドのディープラーニングベースのアプローチが提案されている。
DilationNetと呼ばれる効率的でスケーラブルなディープニューラルネットワークは、畳み込みの拡散率を変化させ、異なる受容領域から特徴を抽出することによって、大きなスペクトルから特徴を組み込む。
提案されたDeepFusionNetアーキテクチャと機能融合スキームを導入し、個々の訓練を受けたネットワークの特徴空間を共同で最適化する。
公開データセットにおける実験は、他の最先端のアプローチよりも99.5%以上精度で優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-12-09T22:44:05Z) - Hyperspectral-Multispectral Image Fusion with Weighted LASSO [68.04032419397677]
本稿では,高スペクトル像と多スペクトル像を融合させて高画質な高スペクトル出力を実現する手法を提案する。
提案したスパース融合と再構成は,既存の公開画像の手法と比較して,定量的に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-03-15T23:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。