論文の概要: A Comparison of Deep Learning Convolution Neural Networks for Liver
Segmentation in Radial Turbo Spin Echo Images
- arxiv url: http://arxiv.org/abs/2004.05731v1
- Date: Mon, 13 Apr 2020 00:19:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 23:42:30.642242
- Title: A Comparison of Deep Learning Convolution Neural Networks for Liver
Segmentation in Radial Turbo Spin Echo Images
- Title(参考訳): 放射状ターボスピンエコー画像における肝分画のための深層学習畳み込みニューラルネットワークの比較
- Authors: Lavanya Umapathy (1 and 2), Mahesh Bharath Keerthivasan (1 and 2),
Jean-Phillipe Galons (2), Wyatt Unger (2), Diego Martin (2), Maria I Altbach
(2) and Ali Bilgin (1 and 2 and 3) ((1) Department of Electrical and Computer
Engineering, University of Arizona, Tucson, Arizona, (2) Department of
Medical Imaging, University of Arizona, Tucson, Arizona, (3) Department of
Biomedical Engineering, University of Arizona, Tucson, Arizona)
- Abstract要約: 腹部RADTSE画像における肝の分画にディープラーニング畳み込みニューラルネットワーク(CNN)を用いた。
TE画像やT2マップで訓練されたCNNは、合成画像よりも平均的なダイススコアが高かった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion-robust 2D Radial Turbo Spin Echo (RADTSE) pulse sequence can provide a
high-resolution composite image, T2-weighted images at multiple echo times
(TEs), and a quantitative T2 map, all from a single k-space acquisition. In
this work, we use a deep-learning convolutional neural network (CNN) for the
segmentation of liver in abdominal RADTSE images. A modified UNET architecture
with generalized dice loss objective function was implemented. Three 2D CNNs
were trained, one for each image type obtained from the RADTSE sequence. On
evaluating the performance of the CNNs on the validation set, we found that
CNNs trained on TE images or the T2 maps had higher average dice scores than
the composite images. This, in turn, implies that the information regarding T2
variation in tissues aids in improving the segmentation performance.
- Abstract(参考訳): モーションロバスト2Dラジアルターボスピンエコー(RADTSE)パルスシーケンスは、高分解能合成画像、複数のエコー時間(TE)でのT2重み付き画像、および1k空間取得による定量的T2マップを提供することができる。
本研究では,腹部RADTSE画像における肝の分画にディープラーニング畳み込みニューラルネットワーク(CNN)を用いる。
汎用的なサイス損失目的関数を持つUNETアーキテクチャを実装した。
3つの2D CNNが訓練され、1つはRADTSEシーケンスから得られた画像タイプである。
検証セットにおけるcnnの性能評価について検討した結果,te画像やt2マップで訓練されたcnnは合成画像よりも平均diceスコアが高いことがわかった。
このことは、組織におけるT2変異に関する情報がセグメンテーション性能の向上に役立つことを示唆している。
関連論文リスト
- Heuristical Comparison of Vision Transformers Against Convolutional Neural Networks for Semantic Segmentation on Remote Sensing Imagery [0.0]
ビジョントランスフォーマー(ViT)は最近、コンピュータビジョンの分野で新しい研究の波をもたらした。
本稿では、iSAID上のリモートセンシング空中画像のセマンティックセグメンテーションにViTを使用する(あるいは使用しない)3つの重要な要素の比較に焦点をあてる。
論文 参考訳(メタデータ) (2024-11-14T00:18:04Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Contextual Embedding Learning to Enhance 2D Networks for Volumetric Image Segmentation [5.995633685952995]
2次元畳み込みニューラルネットワーク(CNN)は、体積データの空間的相関をほとんど利用できない。
本研究では,空間情報を適切にキャプチャする2次元CNNを実現するためのコンテキスト埋め込み学習手法を提案する。
提案手法では,学習した埋め込みとスライスワイズマッチングをソフトキューとして活用し,ネットワークを誘導する。
論文 参考訳(メタデータ) (2024-04-02T08:17:39Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Decomposing 3D Neuroimaging into 2+1D Processing for Schizophrenia
Recognition [25.80846093248797]
我々は2+1Dフレームワークで3Dデータを処理し、巨大なImageNetデータセット上に事前トレーニングされた強力な2D畳み込みニューラルネットワーク(CNN)ネットワークを利用して3Dニューロイメージング認識を実現することを提案する。
特に3次元磁気共鳴イメージング(MRI)の計測値は、隣接するボクセル位置に応じて2次元スライスに分解される。
グローバルプーリングは、アクティベーションパターンが機能マップ上にわずかに分散されているため、冗長な情報を除去するために適用される。
2次元CNNモデルにより処理されていない3次元の文脈情報を集約するために,チャネルワイドおよびスライスワイズ畳み込みを提案する。
論文 参考訳(メタデータ) (2022-11-21T15:22:59Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - BiTr-Unet: a CNN-Transformer Combined Network for MRI Brain Tumor
Segmentation [2.741266294612776]
マルチモーダルMRIスキャンにおける脳腫瘍セグメント化のための,BiTr-Unetと呼ばれるCNN-Transformer複合モデルを提案する。
The proposed BiTr-Unet is a good performance on the BraTS 2021 validation dataset with mean Dice score 0.9076, 0.8392 and 0.8231, and mean Hausdorff distance 4.5322, 13.4592 and 14.9963 for the entire tumor, tumor core, and enhance tumor。
論文 参考訳(メタデータ) (2021-09-25T04:18:34Z) - Improving Automated COVID-19 Grading with Convolutional Neural Networks
in Computed Tomography Scans: An Ablation Study [3.072491397378425]
本稿では,CNNに基づくCT画像からのCOVID-19グレーティングのためのアルゴリズムの性能向上に寄与する各種成分を同定する。
これらの成分を用いた3D CNNは, テストセット105CTでは0.934のLOC曲線 (AUC) , 公開されている742CTでは0.923のAUCを達成した。
論文 参考訳(メタデータ) (2020-09-21T09:58:57Z) - Temporal Distinct Representation Learning for Action Recognition [139.93983070642412]
2次元畳み込みニューラルネットワーク (2D CNN) はビデオの特徴付けに用いられる。
ビデオの異なるフレームは同じ2D CNNカーネルを共有しており、繰り返し、冗長な情報利用をもたらす可能性がある。
本稿では,異なるフレームからの特徴の識別チャネルを段階的にエキサイティングにするためのシーケンシャルチャネルフィルタリング機構を提案し,繰り返し情報抽出を回避する。
本手法は,ベンチマーク時相推論データセットを用いて評価し,それぞれ2.4%,1.3%の可視性向上を実現している。
論文 参考訳(メタデータ) (2020-07-15T11:30:40Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。