論文の概要: VINNA for Neonates -- Orientation Independence through Latent
Augmentations
- arxiv url: http://arxiv.org/abs/2311.17546v1
- Date: Wed, 29 Nov 2023 11:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 21:28:27.598430
- Title: VINNA for Neonates -- Orientation Independence through Latent
Augmentations
- Title(参考訳): VINNA for Neonates -- Latent Augmentationによるオリエンテーション独立
- Authors: Leonie Henschel, David K\"ugler, Lilla Z\"ollei, Martin Reuter
- Abstract要約: 本稿では,Voxel-size Independent Neural Network framework, VINNを用いて,分解能独立性の概念を紹介する。
我々は、全ての剛性変換を4自由度変換モジュール(4-DOF)でネットワークアーキテクチャにシフトすることで、この概念を拡張し、分解能を考慮した内部拡張(VINNA)を可能にする。
VINNAは最先端の外部拡張アプローチを著しく上回り、様々な解像度 (0.5-1.0 mm) で高いセグメンテーション精度を維持している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fast and accurate segmentation of neonatal brain images is highly desired to
better understand and detect changes during development and disease. Yet, the
limited availability of ground truth datasets, lack of standardized acquisition
protocols, and wide variations of head positioning pose challenges for method
development. A few automated image analysis pipelines exist for newborn brain
MRI segmentation, but they often rely on time-consuming procedures and require
resampling to a common resolution, subject to loss of information due to
interpolation and down-sampling. Without registration and image resampling,
variations with respect to head positions and voxel resolutions have to be
addressed differently. In deep-learning, external augmentations are
traditionally used to artificially expand the representation of spatial
variability, increasing the training dataset size and robustness. However,
these transformations in the image space still require resampling, reducing
accuracy specifically in the context of label interpolation. We recently
introduced the concept of resolution-independence with the Voxel-size
Independent Neural Network framework, VINN. Here, we extend this concept by
additionally shifting all rigid-transforms into the network architecture with a
four degree of freedom (4-DOF) transform module, enabling resolution-aware
internal augmentations (VINNA). In this work we show that VINNA (i)
significantly outperforms state-of-the-art external augmentation approaches,
(ii) effectively addresses the head variations present specifically in newborn
datasets, and (iii) retains high segmentation accuracy across a range of
resolutions (0.5-1.0 mm). The 4-DOF transform module is a powerful, general
approach to implement spatial augmentation without requiring image or label
interpolation. The specific network application to newborns will be made
publicly available as VINNA4neonates.
- Abstract(参考訳): 新生児の脳画像の高速かつ正確なセグメンテーションは、発達と疾患における変化をよりよく理解し、検出することが強く望まれる。
しかし, 基礎的真理データセットの可用性の制限, 標準化された取得プロトコルの欠如, 頭部位置の多様さは, 方法論開発の課題となっている。
新生児脳MRIのセグメンテーションのために、いくつかの自動画像解析パイプラインが存在するが、しばしば時間を要する手順に依存し、補間とダウンサンプリングによる情報の喪失によって共通の解像度に再サンプリングする必要がある。
登録や画像再サンプリングがなければ、頭の位置やボクセルの解像度に関するバリエーションは別々に対処しなければならない。
ディープラーニングにおいて、外部拡張は伝統的に、空間的変動の表現を人工的に拡張するために使用され、トレーニングデータセットのサイズと堅牢性を高める。
しかし、画像空間におけるこれらの変換は再サンプリングを必要とし、特にラベル補間における精度を低下させる。
我々は最近、Voxel-size Independent Neural Network framework、VINNで解像度独立性の概念を紹介した。
ここでは、この概念を4自由度(4-DOF)変換モジュールでネットワークアーキテクチャに付加することで、分解能を考慮した内部拡張(VINNA)を可能にする。
この研究で、VINNAは、
(i)最先端の外部拡張アプローチを著しく上回る。
(二)新生児データセットに特有な頭部変化を効果的に解決し、
(iii)解像度(0.5-1.0mm)の範囲で高いセグメンテーション精度を維持する。
4-DOF変換モジュールは、画像やラベルを補間することなく空間拡張を実装するための強力で一般的なアプローチである。
新生児に対する特定のネットワークアプリケーションは、VINNA4neonatesとして公開される。
関連論文リスト
- TransUNext: towards a more advanced U-shaped framework for automatic vessel segmentation in the fundus image [19.16680702780529]
本稿では,ハイブリッドトランスフォーマーとCNN: TransUNextのための,より高度なU字型アーキテクチャを提案する。
Global Multi-Scale Fusion (GMSF)モジュールはさらに、スキップ接続のアップグレード、高レベルセマンティクスと低レベル詳細情報の融合、高レベルセマンティクスと低レベルセマンティクスの相違を取り除くために導入された。
論文 参考訳(メタデータ) (2024-11-05T01:44:22Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - DRCT: Saving Image Super-resolution away from Information Bottleneck [7.765333471208582]
低レベルのビジョンタスクに対するビジョントランスフォーマーベースのアプローチは、広く成功している。
空間情報の損失を軽減するため,Dense-Residual-Connected Transformer (DRCT)を提案する。
提案手法は,ベンチマークデータセットの最先端手法を超越した手法である。
論文 参考訳(メタデータ) (2024-03-31T15:34:45Z) - Self-supervised Semantic Segmentation: Consistency over Transformation [3.485615723221064]
Inception Large Kernel Attention (I-LKA) モジュールをベースとしたロバストなフレームワークを統合した新しい自己教師型アルゴリズム textbfS$3$-Net を提案する。
我々は、変形可能な畳み込みを積分成分として利用し、優れた物体境界定義のための歪み変形を効果的に捕捉し、デライン化する。
皮膚病変および肺臓器の分節タスクに関する実験結果から,SOTA法と比較して,本手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-08-31T21:28:46Z) - Unsupervised domain adaptation semantic segmentation of high-resolution
remote sensing imagery with invariant domain-level context memory [10.210120085157161]
本研究では,HRS画像のセマンティックセマンティックセマンティックセマンティクスのための,教師なし領域適応セマンティクスネットワーク(MemoryAdaptNet)を提案する。
MemoryAdaptNetは、ソースドメインとターゲットドメイン間のドメイン分布の不一致をブリッジするために、出力空間逆学習スキームを構築する。
3つのクロスドメインタスクによる実験は、提案したMemoryAdaptNetが最先端の手法よりもはるかに優れていることを示している。
論文 参考訳(メタデータ) (2022-08-16T12:35:57Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - FastSurferVINN: Building Resolution-Independence into Deep Learning
Segmentation Methods -- A Solution for HighRes Brain MRI [0.0]
本稿では,Voxelsize Independent Neural Network (VINN) を導入する。
VINNは0.7-1.0mmの脳セグメンテーションを同時にサポートする最初の方法である。
全体として、内部分解能独立性は、HiResと1.0mmMRIのセグメンテーションの両方に有益である。
論文 参考訳(メタデータ) (2021-12-17T17:56:59Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Less is More: Pay Less Attention in Vision Transformers [61.05787583247392]
注意の少ないvIsion Transformerは、畳み込み、完全接続層、自己アテンションが、画像パッチシーケンスを処理するためにほぼ同等な数学的表現を持つという事実に基づいている。
提案したLITは、画像分類、オブジェクト検出、インスタンス分割を含む画像認識タスクにおいて有望な性能を達成する。
論文 参考訳(メタデータ) (2021-05-29T05:26:07Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。