論文の概要: A Joint Graph and Image Convolution Network for Automatic Brain Tumor
Segmentation
- arxiv url: http://arxiv.org/abs/2109.05580v1
- Date: Sun, 12 Sep 2021 18:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 09:45:14.884964
- Title: A Joint Graph and Image Convolution Network for Automatic Brain Tumor
Segmentation
- Title(参考訳): 脳腫瘍自動分割のためのジョイントグラフと画像畳み込みネットワーク
- Authors: Camillo Saueressig, Adam Berkley, Reshma Munbodh, Ritambhara Singh
- Abstract要約: 本稿では,脳腫瘍(BraTS)2021の課題として,関節グラフ畳み込み・画像畳み込みニューラルネットワークを提案する。
我々は、まず、グラフニューラルネットワーク(GNN)によって分割された、異なる画像領域からなるグラフとして、各脳をモデル化する。
GNNによって同定される腫瘍体積は、最終セグメンテーションを生成する単純な(ボクセル)畳み込みニューラルネットワーク(CNN)によってさらに洗練される。
- 参考スコア(独自算出の注目度): 1.3381749415517017
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a joint graph convolution-image convolution neural network as our
submission to the Brain Tumor Segmentation (BraTS) 2021 challenge. We model
each brain as a graph composed of distinct image regions, which is initially
segmented by a graph neural network (GNN). Subsequently, the tumorous volume
identified by the GNN is further refined by a simple (voxel) convolutional
neural network (CNN), which produces the final segmentation. This approach
captures both global brain feature interactions via the graphical
representation and local image details through the use of convolutional
filters. We find that the GNN component by itself can effectively identify and
segment the brain tumors. The addition of the CNN further improves the median
performance of the model by 2 percent across all metrics evaluated. On the
validation set, our joint GNN-CNN model achieves mean Dice scores of 0.89,
0.81, 0.73 and mean Hausdorff distances (95th percentile) of 6.8, 12.6, 28.2mm
on the whole tumor, core tumor, and enhancing tumor, respectively.
- Abstract(参考訳): 本稿では,脳腫瘍分離(BraTS)2021チャレンジへの参加として,共同グラフ畳み込み画像畳み込みニューラルネットワークを提案する。
各脳を、まずグラフニューラルネットワーク(gnn)によって分割された異なる画像領域からなるグラフとしてモデル化する。
その後、GNNによって同定された腫瘍体積は、最終セグメンテーションを生成する単純な(ボクセル)畳み込みニューラルネットワーク(CNN)によってさらに洗練される。
このアプローチは、畳み込みフィルタを用いて、グラフィカルな表現と局所的な画像の詳細を通して、グローバルな脳機能相互作用をキャプチャする。
我々は、GNN成分自体が脳腫瘍を効果的に同定し、分類できることを発見した。
CNNの追加により、評価されたすべてのメトリクスに対して、モデルの中央値のパフォーマンスが2%向上する。
gnn-cnnモデルでは, 腫瘍, コア腫瘍, 造影腫瘍のそれぞれ0.89, 0.81, 0.73および平均ハウスドルフ距離(95%)が6.8mm, 12.6mm, 28.2mmであった。
関連論文リスト
- Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Multi-class Brain Tumor Segmentation using Graph Attention Network [3.3635982995145994]
この研究は、MRIとグラフニューラルネットワーク(GNN)の進歩を生かして、効率的な脳腫瘍要約モデルを導入する。
このモデルは、ボリュームMRIを領域隣接グラフ(RAG)として表現し、グラフ注意ネットワーク(GAT)を通して腫瘍の種類を特定することを学習する。
論文 参考訳(メタデータ) (2023-02-11T04:30:40Z) - 'A net for everyone': fully personalized and unsupervised neural
networks trained with longitudinal data from a single patient [0.5576716560981031]
縦断データセットの腫瘍進展を検出するために、パーソナライズされたニューラルネットワークを訓練する。
それぞれの患者に対して、異なるタイムポイントからの2つの画像を使用して、独自のニューラルネットワークをトレーニングしました。
1人の患者のデータを使って、深層ニューラルネットワークをトレーニングし、腫瘍の変化をモニターできることが示されています。
論文 参考訳(メタデータ) (2022-10-25T11:07:24Z) - How GNNs Facilitate CNNs in Mining Geometric Information from
Large-Scale Medical Images [2.2699159408903484]
畳み込みニューラルネットワーク(CNN)が捉えたグローバルな画像レベルの表現を強化するための融合フレームワークを提案する。
大腸癌と胃癌の大規模なコホートから得られた組織学的データセットの融合戦略について検討した。
論文 参考訳(メタデータ) (2022-06-15T15:27:48Z) - A Graphical Approach For Brain Haemorrhage Segmentation [0.0]
脳の出血は15歳から24歳までの人の死因の主要な原因である。
近年のディープラーニングと画像処理の進歩は、CTスキャンのような様々なモダリティを利用して、脳出血の検出とセグメンテーションを自動化する。
論文 参考訳(メタデータ) (2022-02-14T17:06:32Z) - HNF-Netv2 for Brain Tumor Segmentation using multi-modal MR Imaging [86.52489226518955]
我々は,HNF-NetをHNF-Netv2に拡張する。
我々の方法は、RSNA 2021脳腫瘍AIチャレンジ賞(セグメンテーション・タスク)を受賞しました。
論文 参考訳(メタデータ) (2022-02-10T06:34:32Z) - BiTr-Unet: a CNN-Transformer Combined Network for MRI Brain Tumor
Segmentation [2.741266294612776]
マルチモーダルMRIスキャンにおける脳腫瘍セグメント化のための,BiTr-Unetと呼ばれるCNN-Transformer複合モデルを提案する。
The proposed BiTr-Unet is a good performance on the BraTS 2021 validation dataset with mean Dice score 0.9076, 0.8392 and 0.8231, and mean Hausdorff distance 4.5322, 13.4592 and 14.9963 for the entire tumor, tumor core, and enhance tumor。
論文 参考訳(メタデータ) (2021-09-25T04:18:34Z) - PSGR: Pixel-wise Sparse Graph Reasoning for COVID-19 Pneumonia
Segmentation in CT Images [83.26057031236965]
画像中の新型コロナウイルス感染領域セグメンテーションの長距離依存性のモデリングを強化するために,PSGRモジュールを提案する。
PSGRモジュールは不正確なピクセルからノードへの投影を回避し、グローバルな推論のために各ピクセル固有の情報を保存する。
このソリューションは、3つの公開データセット上の4つの広く使われているセグメンテーションモデルに対して評価されている。
論文 参考訳(メタデータ) (2021-08-09T04:58:23Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Understanding Graph Isomorphism Network for rs-fMRI Functional
Connectivity Analysis [49.05541693243502]
グラフ同型ネットワーク(GIN)を用いてfMRIデータを解析するフレームワークを開発する。
本稿では,GINがグラフ空間における畳み込みニューラルネットワーク(CNN)の二重表現であることを示す。
我々は,提案したGINをワンホット符号化で調整するGNNに対して,CNNベースのサリエンシマップ技術を利用する。
論文 参考訳(メタデータ) (2020-01-10T23:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。