論文の概要: Image Segmentation: Inducing graph-based learning
- arxiv url: http://arxiv.org/abs/2501.03765v2
- Date: Sun, 19 Jan 2025 11:34:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:15:20.643074
- Title: Image Segmentation: Inducing graph-based learning
- Title(参考訳): 画像セグメンテーション:グラフに基づく学習を促す
- Authors: Aryan Singh, Pepijn Van de Ven, Ciarán Eising, Patrick Denny,
- Abstract要約: 本研究では,グラフニューラルネットワーク(GNN)の可能性を探り,多様な画像モダリティにまたがるセマンティックセグメンテーションを強化する。
GNNは、画像特徴のグラフ表現の構築と操作により、画像領域間の関係を明示的にモデル化する。
本分析は,多様なセグメンテーション課題に対処するGNNの汎用性を実証し,様々なアプリケーションにおけるセグメンテーション精度向上の可能性を強調した。
- 参考スコア(独自算出の注目度): 4.499833362998488
- License:
- Abstract: This study explores the potential of graph neural networks (GNNs) to enhance semantic segmentation across diverse image modalities. We evaluate the effectiveness of a novel GNN-based U-Net architecture on three distinct datasets: PascalVOC, a standard benchmark for natural image segmentation, WoodScape, a challenging dataset of fisheye images commonly used in autonomous driving, introducing significant geometric distortions; and ISIC2016, a dataset of dermoscopic images for skin lesion segmentation. We compare our proposed UNet-GNN model against established convolutional neural networks (CNNs) based segmentation models, including U-Net and U-Net++, as well as the transformer-based SwinUNet. Unlike these methods, which primarily rely on local convolutional operations or global self-attention, GNNs explicitly model relationships between image regions by constructing and operating on a graph representation of the image features. This approach allows the model to capture long-range dependencies and complex spatial relationships, which we hypothesize will be particularly beneficial for handling geometric distortions present in fisheye imagery and capturing intricate boundaries in medical images. Our analysis demonstrates the versatility of GNNs in addressing diverse segmentation challenges and highlights their potential to improve segmentation accuracy in various applications, including autonomous driving and medical image analysis.
- Abstract(参考訳): 本研究では,グラフニューラルネットワーク(GNN)の可能性を探り,多様な画像モダリティにまたがるセマンティックセグメンテーションを強化する。
自然画像セグメンテーションの標準ベンチマークであるPascalVOC,自律走行によく用いられる魚眼画像の挑戦的データセットであるWoodScape,および皮膚病変セグメンテーションのための皮膚内視鏡画像のデータセットであるISIC2016の3つの異なるデータセットに対する新しいGNNベースのU-Netアーキテクチャの有効性を評価した。
提案したUNet-GNNモデルと、U-NetやU-Net++を含む確立された畳み込みニューラルネットワーク(CNN)ベースのセグメンテーションモデル、およびトランスフォーマーベースのSwinUNetを比較した。
ローカルな畳み込み操作やグローバルな自己意識に依存するこれらの手法とは異なり、GNNは画像特徴のグラフ表現を構築し操作することによって、画像領域間の関係を明示的にモデル化する。
このアプローチにより,魚眼画像における幾何学的歪みの処理や,医用画像における複雑な境界の取得に有効であると考えられる,長距離の依存関係や複雑な空間関係を捉えることが可能となる。
本分析は,多様なセグメンテーション課題に対処するGNNの汎用性を実証し,自律運転や医用画像解析など,様々な応用におけるセグメンテーション精度の向上の可能性を強調した。
関連論文リスト
- Improved Image Classification with Manifold Neural Networks [13.02854405679453]
グラフニューラルネットワーク(GNN)は、さまざまな学習タスクで人気を集めている。
本稿では,一般データ表現におけるGNNの可能性,特に画像領域における検討を行う。
分類タスクにおいて、画像ラベルに対応するノードラベルを予測するためにGNNを訓練し、GNNの収束を利用してGNNの一般化を分析する。
論文 参考訳(メタデータ) (2024-09-19T19:55:33Z) - Compact & Capable: Harnessing Graph Neural Networks and Edge Convolution
for Medical Image Classification [0.0]
本稿では,重要なグラフノード間の接続を強く表現するために,RGBチャネルの特徴値の相互接続性を活用し,GNNとエッジ畳み込みを組み合わせた新しいモデルを提案する。
提案モデルでは,最新のDeep Neural Networks (DNN) と同等に動作するが,1000倍のパラメータが減少し,トレーニング時間とデータ要求が短縮される。
論文 参考訳(メタデータ) (2023-07-24T13:39:21Z) - NexToU: Efficient Topology-Aware U-Net for Medical Image Segmentation [3.8336080345323227]
CNNとTransformerの派生型は、主要な医療画像セグメンテーションバックボーンとして登場した。
医用画像分割のための新しいハイブリッドアーキテクチャであるNexToUを提案する。
我々の手法は、他の最先端(SOTA)アーキテクチャよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-05-25T10:18:57Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Improving anatomical plausibility in medical image segmentation via
hybrid graph neural networks: applications to chest x-ray analysis [3.3382651833270587]
我々は、画像特徴符号化とグラフ畳み込みニューラルネットワーク(GCNN)の標準畳み込みを利用して、解剖学的構造の可塑性表現を復号するエンコーダデコーダニューラルアーキテクチャであるHybridGNetを紹介する。
新たなイメージ・ツー・グラフ・スキップ接続層により、標準的な畳み込みブロックからGCNNブロックへローカライズされた機能が流れ、セグメンテーションの精度が向上することを示す。
論文 参考訳(メタデータ) (2022-03-21T13:37:23Z) - RSI-Net: Two-Stream Deep Neural Network Integrating GCN and Atrous CNN
for Semantic Segmentation of High-resolution Remote Sensing Images [3.468780866037609]
本稿では,リモートセンシング画像(RSI-Net)のセマンティックセグメンテーションのための2ストリームディープニューラルネットワークを提案する。
実験はVayhingen、Potsdam、Gaofen RSIデータセットで実施されている。
その結果,6つの最先端RSIセマンティックセグメンテーション法と比較して,総合的精度,F1スコア,カッパ係数において,RSI-Netの優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-19T15:57:20Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。