論文の概要: Hybrid graph convolutional neural networks for landmark-based anatomical
segmentation
- arxiv url: http://arxiv.org/abs/2106.09832v1
- Date: Thu, 17 Jun 2021 22:04:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:12:30.905367
- Title: Hybrid graph convolutional neural networks for landmark-based anatomical
segmentation
- Title(参考訳): ハイブリッドグラフ畳み込みニューラルネットワークによるランドマークに基づく解剖学的セグメンテーション
- Authors: Nicol\'as Gaggion, Lucas Mansilla, Diego Milone, Enzo Ferrante
- Abstract要約: HybridGNetは、画像特徴符号化のための標準畳み込みを組み合わせたエンコーダ-デコーダニューラルアーキテクチャである。
ピクセルレベルのアノテーションからランドマークベースのセグメンテーションを構築するために使用できることを示す。
- 参考スコア(独自算出の注目度): 3.2513239513964978
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work we address the problem of landmark-based segmentation for
anatomical structures. We propose HybridGNet, an encoder-decoder neural
architecture which combines standard convolutions for image feature encoding,
with graph convolutional neural networks to decode plausible representations of
anatomical structures. We benchmark the proposed architecture considering other
standard landmark and pixel-based models for anatomical segmentation in chest
x-ray images, and found that HybridGNet is more robust to image occlusions. We
also show that it can be used to construct landmark-based segmentations from
pixel level annotations. Our experimental results suggest that HybridGNet
produces accurate and anatomically plausible landmark-based segmentations, by
naturally incorporating shape constraints within the decoding process via
spectral convolutions.
- Abstract(参考訳): 本研究では,解剖学的構造に対するランドマークベースセグメンテーションの問題に対処する。
本稿では,画像特徴符号化の標準畳み込みとグラフ畳み込みニューラルネットワークを組み合わせたエンコーダ・デコーダニューラルネットワークであるHybridGNetを提案する。
胸部x線画像における解剖学的セグメンテーションのための他の標準ランドマークモデルとピクセルベースモデルを考慮して,提案アーキテクチャをベンチマークし,hybridgnetが画像閉塞に対してより頑健であることを見出した。
また、ピクセルレベルのアノテーションからランドマークベースのセグメンテーションを構築できることも示しています。
実験結果から,HybridGNetはスペクトル畳み込みによるデコードプロセスに形状制約を自然に組み込むことで,正確で解剖学的に妥当なランドマークベースセグメンテーションを生成することが示唆された。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - PHG-Net: Persistent Homology Guided Medical Image Classification [14.450329809640422]
医用画像分類のためのトポロジ的特徴を探索する永続的ホモロジーガイド手法(PHG-Net)を提案する。
入力画像に対して、まずその3次永続図を計算し、トポロジ的特徴をベクトル表現に抽出する。
抽出したトポロジ的特徴は、特徴融合のためにCNNやTransformerによって生成された特徴マップに組み込まれる。
論文 参考訳(メタデータ) (2023-11-28T21:34:06Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - ViG-UNet: Vision Graph Neural Networks for Medical Image Segmentation [7.802846775068384]
本稿では、エンコーダ、デコーダ、ボトルネック、スキップ接続を備えたグラフニューラルネットワークに基づくU字型アーキテクチャを提案する。
ISIC 2016 と ISIC 2017 と Kvasir-SEG のデータセットによる実験結果から,提案したアーキテクチャは,既存の古典的かつ最先端のU字型ネットワークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-08T03:17:00Z) - Structure Embedded Nucleus Classification for Histopathology Images [51.02953253067348]
ほとんどのニューラルネットワークに基づく手法は、局所的な畳み込みの受容領域に影響を受けている。
本稿では,核輪郭を順にサンプリングした点列に変換する新しい多角構造特徴学習機構を提案する。
次に、核をノードとするグラフ構造に組織像を変換し、その表現に核の空間分布を埋め込むグラフニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2023-02-22T14:52:06Z) - Multi-center anatomical segmentation with heterogeneous labels via
landmark-based models [5.1618890441642]
現状のピクセルレベルのセグメンテーションモデルは、ドメインの問題やラベルの矛盾により、このタスクを鼻で学べないことを示す。
次に、グラフベースの表現を用いて利用可能な解剖構造を学習するランドマークベースセグメンテーションモデルであるHybridGNetを採用することを提案する。
論文 参考訳(メタデータ) (2022-11-14T14:25:52Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Improving anatomical plausibility in medical image segmentation via
hybrid graph neural networks: applications to chest x-ray analysis [3.3382651833270587]
我々は、画像特徴符号化とグラフ畳み込みニューラルネットワーク(GCNN)の標準畳み込みを利用して、解剖学的構造の可塑性表現を復号するエンコーダデコーダニューラルアーキテクチャであるHybridGNetを紹介する。
新たなイメージ・ツー・グラフ・スキップ接続層により、標準的な畳み込みブロックからGCNNブロックへローカライズされた機能が流れ、セグメンテーションの精度が向上することを示す。
論文 参考訳(メタデータ) (2022-03-21T13:37:23Z) - Automatic Semantic Segmentation of the Lumbar Spine. Clinical
Applicability in a Multi-parametric and Multi-centre MRI study [0.0]
この文書は、最も正確なセグメンテーションを得たニューラルネットワークの設計結果について記述し、分析する。
提案するいくつかの設計は、ベースラインとして使用される標準のU-Netよりも優れており、特に複数のニューラルネットワークの出力が異なる戦略に従って結合されるアンサンブルで使用される場合である。
論文 参考訳(メタデータ) (2021-11-16T17:33:05Z) - Crosslink-Net: Double-branch Encoder Segmentation Network via Fusing
Vertical and Horizontal Convolutions [58.71117402626524]
医用画像分割のための新しいダブルブランチエンコーダアーキテクチャを提案する。
1)正方形畳み込みカーネルによる特徴の識別をさらに改善する必要があるため,非正方形および水平畳み込みカーネルの利用を提案する。
実験では,4つのデータセット上でのモデルの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-24T02:58:32Z) - The efficiency of deep learning algorithms for detecting anatomical
reference points on radiological images of the head profile [55.41644538483948]
U-Netニューラルネットワークは、完全な畳み込みニューラルネットワークよりも正確に解剖学的基準点の検出を可能にする。
U-Net ニューラルネットワークによる解剖学的基準点検出の結果は,歯科矯正医のグループによる基準点検出の平均値に近づいた。
論文 参考訳(メタデータ) (2020-05-25T13:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。