論文の概要: Improving anatomical plausibility in medical image segmentation via
hybrid graph neural networks: applications to chest x-ray analysis
- arxiv url: http://arxiv.org/abs/2203.10977v1
- Date: Mon, 21 Mar 2022 13:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 22:38:19.729786
- Title: Improving anatomical plausibility in medical image segmentation via
hybrid graph neural networks: applications to chest x-ray analysis
- Title(参考訳): ハイブリッドグラフニューラルネットワークによる医用画像分割の解剖学的可能性の改善:胸部x線解析への応用
- Authors: Nicol\'as Gaggion, Lucas Mansilla, Candelaria Mosquera, Diego H.
Milone and Enzo Ferrante
- Abstract要約: 我々は、画像特徴符号化とグラフ畳み込みニューラルネットワーク(GCNN)の標準畳み込みを利用して、解剖学的構造の可塑性表現を復号するエンコーダデコーダニューラルアーキテクチャであるHybridGNetを紹介する。
新たなイメージ・ツー・グラフ・スキップ接続層により、標準的な畳み込みブロックからGCNNブロックへローカライズされた機能が流れ、セグメンテーションの精度が向上することを示す。
- 参考スコア(独自算出の注目度): 3.3382651833270587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anatomical segmentation is a fundamental task in medical image computing,
generally tackled with fully convolutional neural networks which produce dense
segmentation masks. These models are often trained with loss functions such as
cross-entropy or Dice, which assume pixels to be independent of each other,
thus ignoring topological errors and anatomical inconsistencies. We address
this limitation by moving from pixel-level to graph representations, which
allow to naturally incorporate anatomical constraints by construction. To this
end, we introduce HybridGNet, an encoder-decoder neural architecture that
leverages standard convolutions for image feature encoding and graph
convolutional neural networks (GCNNs) to decode plausible representations of
anatomical structures. We also propose a novel image-to-graph skip connection
layer which allows localized features to flow from standard convolutional
blocks to GCNN blocks, and show that it improves segmentation accuracy. The
proposed architecture is extensively evaluated in a variety of domain shift and
image occlusion scenarios, and audited considering different types of
demographic domain shift. Our comprehensive experimental setup compares
HybridGNet with other landmark and pixel-based models for anatomical
segmentation in chest x-ray images, and shows that it produces anatomically
plausible results in challenging scenarios where other models tend to fail.
- Abstract(参考訳): 解剖学的セグメンテーション(Anatomical segmentation)は、医用画像コンピューティングにおける基本的な課題であり、一般的には密度の高いセグメンテーションマスクを生成する完全な畳み込みニューラルネットワークに取り組む。
これらのモデルはしばしばクロスエントロピーやサイスのような損失関数で訓練され、ピクセルは互いに独立であると仮定されるため、位相的誤差や解剖学的不整合は無視される。
我々は、この制限をピクセルレベルからグラフ表現に移行することで解決し、構築によって自然に解剖学的制約を組み込むことができる。
そこで本研究では,画像特徴量符号化のための標準畳み込みと,解剖学的構造をデコードするグラフ畳み込みニューラルネットワーク(gcnns)を活用する,エンコーダ・デコーダ型ニューラルネットワークであるhybridgnetを提案する。
また,標準的な畳み込みブロックからGCNNブロックへ局所的特徴を流し,セグメント化精度を向上させる画像間スキップ接続層を提案する。
提案アーキテクチャは,様々な領域シフトと画像閉塞シナリオにおいて広範囲に評価され,異なるタイプの階層シフトを考慮して評価される。
我々の総合的な実験装置は、胸部X線画像における解剖学的セグメント化のためのHybridGNetと他のランドマークおよびピクセルベースのモデルを比較し、他のモデルが失敗する傾向にある挑戦的なシナリオにおいて解剖学的に妥当な結果をもたらすことを示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - NexToU: Efficient Topology-Aware U-Net for Medical Image Segmentation [3.8336080345323227]
CNNとTransformerの派生型は、主要な医療画像セグメンテーションバックボーンとして登場した。
医用画像分割のための新しいハイブリッドアーキテクチャであるNexToUを提案する。
我々の手法は、他の最先端(SOTA)アーキテクチャよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-05-25T10:18:57Z) - Omni-Seg+: A Scale-aware Dynamic Network for Pathological Image
Segmentation [13.182646724406291]
糸球体の断面領域は、管周囲の毛細血管の64倍の大きさである。
マルチオブジェクト(6つの組織型)とマルチスケール(5Xから40Xスケール)の画像セグメンテーションを実現する,スケール対応の動的ニューラルネットワークであるOmni-Seg+ネットワークを提案する。
論文 参考訳(メタデータ) (2022-06-27T21:09:55Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Automatic Semantic Segmentation of the Lumbar Spine. Clinical
Applicability in a Multi-parametric and Multi-centre MRI study [0.0]
この文書は、最も正確なセグメンテーションを得たニューラルネットワークの設計結果について記述し、分析する。
提案するいくつかの設計は、ベースラインとして使用される標準のU-Netよりも優れており、特に複数のニューラルネットワークの出力が異なる戦略に従って結合されるアンサンブルで使用される場合である。
論文 参考訳(メタデータ) (2021-11-16T17:33:05Z) - PSGR: Pixel-wise Sparse Graph Reasoning for COVID-19 Pneumonia
Segmentation in CT Images [83.26057031236965]
画像中の新型コロナウイルス感染領域セグメンテーションの長距離依存性のモデリングを強化するために,PSGRモジュールを提案する。
PSGRモジュールは不正確なピクセルからノードへの投影を回避し、グローバルな推論のために各ピクセル固有の情報を保存する。
このソリューションは、3つの公開データセット上の4つの広く使われているセグメンテーションモデルに対して評価されている。
論文 参考訳(メタデータ) (2021-08-09T04:58:23Z) - Hybrid graph convolutional neural networks for landmark-based anatomical
segmentation [3.2513239513964978]
HybridGNetは、画像特徴符号化のための標準畳み込みを組み合わせたエンコーダ-デコーダニューラルアーキテクチャである。
ピクセルレベルのアノテーションからランドマークベースのセグメンテーションを構築するために使用できることを示す。
論文 参考訳(メタデータ) (2021-06-17T22:04:44Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。