論文の概要: Voxels Intersecting along Orthogonal Levels Attention U-Net (viola-Unet)
to Segment Intracerebral Haemorrhage Using Computed Tomography Head Scans
- arxiv url: http://arxiv.org/abs/2208.06313v1
- Date: Fri, 12 Aug 2022 14:53:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:34:41.037331
- Title: Voxels Intersecting along Orthogonal Levels Attention U-Net (viola-Unet)
to Segment Intracerebral Haemorrhage Using Computed Tomography Head Scans
- Title(参考訳): CT頭蓋骨を用いた脳内出血に対するVia-Unet(Via-Unet)と直交するVoxels
- Authors: Qinghui Liu, Bradley J MacIntosh, Till Schellhorn, Karoline Skogen,
KyrreEeg Emblem, and Atle Bj{\o}rnerud
- Abstract要約: 我々は2つの異なる3次元ディープラーニングニューラルネットワークを実装した。
非造影CT(non-contrast Computed tomography)でみられた頭蓋内出血(ICH)の分画能について検討した。
ヴィオラ-UnetとnnU-Netネットワークを組み合わせたアンサンブルモデルは、DSCとHDで最高の性能を示した。
- 参考スコア(独自算出の注目度): 1.0039211120441933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We implemented two distinct 3-dimensional deep learning neural networks and
evaluate their ability to segment intracranial hemorrhage (ICH) seen on
non-contrast computed tomography (CT). One model, referred to as
"Voxels-Intersecting along Orthogonal Levels of Attention U-Net" (viola-Unet),
has architecture elements that are amenable to the INSTANCE 2022 Data
Challenge. A second comparison model was derived from the no-new U-Net
(nnU-Net). Input images and ground truth segmentation maps were used to train
the two networks separately in supervised manner; validation data were
subsequently used for semi-supervised training. Model predictions were compared
during 5-fold cross validation. The viola-Unet outperformed the comparison
network on two out of four performance metrics (i.e., NSD and RVD). An ensemble
model that combined viola-Unet and nnU-Net networks had the highest performance
for DSC and HD. We demonstrate there were ICH segmentation performance benefits
associated with a 3D U-Net efficiently incorporates spatially orthogonal
features during the decoding branch of the U-Net. The code base, pretrained
weights, and docker image of the viola-Unet AI tool will be publicly available
at https://github.com/samleoqh/Viola-Unet .
- Abstract(参考訳): 我々は2つの異なる3次元ディープラーニングニューラルネットワークを実装し、非造影CTで見られる頭蓋内出血(ICH)の分類能力を評価した。
1つのモデルは、"Voxels-Intersecting along Orthogonal Levels of Attention U-Net" (viola-Unet)と呼ばれ、INSTANCE 2022 Data Challengeに適合するアーキテクチャ要素を持つ。
2つ目の比較モデルは、新しいU-Net(nU-Net)から導出された。
入力画像と地上の真理分割マップは2つのネットワークを教師付きで個別にトレーニングするために使用され、検証データはその後、半教師付きトレーニングに使用された。
モデル予測は5倍のクロス検証で比較された。
ヴィオラ-Unetは4つのパフォーマンス指標(NSDとRVD)のうち2つで比較ネットワークを上回った。
ヴィオラ-UnetとnnU-Netネットワークを組み合わせたアンサンブルモデルは、DSCとHDで最高の性能を示した。
我々は,u-netのデコード中に空間的に直交する特徴を効率良く組み込む3d u-netのicセグメンテーション性能の利点を実証する。
Viola-Unet AIツールのコードベース、トレーニング済み重量、およびdockerイメージは、https://github.com/samleoqh/Viola-Unetで公開される。
関連論文リスト
- UnSeGArmaNet: Unsupervised Image Segmentation using Graph Neural Networks with Convolutional ARMA Filters [10.940349832919699]
事前学習したViTを用いた教師なしセグメンテーションフレームワークを提案する。
画像内に固有のグラフ構造を利用することにより,セグメント化における顕著な性能を実現する。
提案手法は,ベンチマーク画像セグメンテーションデータセット上での最先端性能(教師付き手法に匹敵する)を提供する。
論文 参考訳(メタデータ) (2024-10-08T15:10:09Z) - TBSN: Transformer-Based Blind-Spot Network for Self-Supervised Image Denoising [94.09442506816724]
BSN(Blind-spot Network)は、自己教師型イメージデノベーション(SSID)において一般的なネットワークアーキテクチャである。
本稿では, ブラインドスポット要求を満たす変圧器演算子の解析と再設計により, 変圧器ベースブラインドスポットネットワーク(TBSN)を提案する。
空間的自己注意のために、注意行列に精巧なマスクを適用して受容場を制限し、拡張された畳み込みを模倣する。
チャネル自己アテンションについては,マルチスケールアーキテクチャの深層部において,チャネル数が空間的サイズよりも大きい場合,盲点情報を漏洩する可能性がある。
論文 参考訳(メタデータ) (2024-04-11T15:39:10Z) - FDNet: Feature Decoupled Segmentation Network for Tooth CBCT Image [5.455286826028825]
本稿では,CBCTスキャンで遭遇する歯質変化状況に優れた特徴デカップリングネットワークであるFDNetを提案する。
フレームワークの有効性は厳格なベンチマークによって検証され、それぞれ85.28%と75.23%のDiceとIoUのスコアを達成している。
論文 参考訳(メタデータ) (2023-11-11T12:00:24Z) - Slim U-Net: Efficient Anatomical Feature Preserving U-net Architecture
for Ultrasound Image Segmentation [0.03499870393443267]
男性の骨盤像UltraSound(US)画像における尿中膀胱(UB)の分画に対するU-Netモデルの適用性について検討した。
アメリカの画像のUBは任意の形状、不明瞭な境界を持ち、物体間および物体内変動がかなり大きい。
UBセグメンテーションの課題に対処するために,Slim U-Netを提案する。
論文 参考訳(メタデータ) (2023-02-22T17:54:39Z) - Continuous U-Net: Faster, Greater and Noiseless [2.6163085620813287]
画像セグメンテーションのための新しいネットワークファミリーであるContinuous U-Netを紹介する。
より高速な収束、高ロバスト性、ノイズに対する感度の低下を示す理論的な保証を提供する。
本研究では, 医用画像セグメンテーションベンチマークデータセットにおいて, 既存のU-Netブロックよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-01T17:46:00Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - EAR-U-Net: EfficientNet and attention-based residual U-Net for automatic
liver segmentation in CT [0.5461681605490603]
本稿ではEAR-U-Netと呼ばれる新しいネットワークフレームワークを提案する。
EfficientNetB4、アテンションゲート、残留学習技術を活用して、自動的かつ正確な肝セグメンテーションを実現する。
論文 参考訳(メタデータ) (2021-10-03T14:43:18Z) - Affinity Attention Graph Neural Network for Weakly Supervised Semantic
Segmentation [86.44301443789763]
弱教師付きセマンティックセグメンテーションのための親和性注意グラフニューラルネットワーク(A2$GNN)を提案する。
提案手法は,Pascal VOC 2012データセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-06-08T02:19:21Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - PSC-Net: Learning Part Spatial Co-occurrence for Occluded Pedestrian
Detection [144.19392893747582]
本稿では,歩行者検出のための新しいアプローチをPSC-Netと呼ぶ。
PSC-Netは、グラフ畳み込みネットワーク(GCN)を介して、異なる歩行者体のパーツ間の共起情報と部分内共起情報の両方をキャプチャする
我々のPSC-Netは歩行者のトポロジ的構造を利用しており、空間的共起を学習するために、部分ベースのアノテーションや視覚的バウンディングボックス(VBB)情報を必要としない。
論文 参考訳(メタデータ) (2020-01-25T02:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。