論文の概要: A Dense Siamese U-Net trained with Edge Enhanced 3D IOU Loss for Image
Co-segmentation
- arxiv url: http://arxiv.org/abs/2108.07491v1
- Date: Tue, 17 Aug 2021 08:12:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:20:09.726826
- Title: A Dense Siamese U-Net trained with Edge Enhanced 3D IOU Loss for Image
Co-segmentation
- Title(参考訳): エッジ強化型3次元IOU損失で訓練した高密度シームズU-Net
- Authors: Xi Liu, Xiabi Liu, Huiyu Li, Xiaopeng Gong
- Abstract要約: 本稿では, シームズU-netのデコーダパスに高密度接続を導入することにより, 画像のコセグメンテーションに新たなアプローチを提案する。
符号付き正規化距離マップ(SNDM)と二乗分割マスクとの厳密なマッピングを考えると、SNDMを元の画像から直接推定する。
新しい学習損失は、生成されたSNDMとラベル付きSNDMとの間の結合(IOU)の3次元交叉を測定するように設計されている。
- 参考スコア(独自算出の注目度): 2.834835382362453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image co-segmentation has attracted a lot of attentions in computer vision
community. In this paper, we propose a new approach to image co-segmentation
through introducing the dense connections into the decoder path of Siamese
U-net and presenting a new edge enhanced 3D IOU loss measured over distance
maps. Considering the rigorous mapping between the signed normalized distance
map (SNDM) and the binary segmentation mask, we estimate the SNDMs directly
from original images and use them to determine the segmentation results. We
apply the Siamese U-net for solving this problem and improve its effectiveness
by densely connecting each layer with subsequent layers in the decoder path.
Furthermore, a new learning loss is designed to measure the 3D intersection
over union (IOU) between the generated SNDMs and the labeled SNDMs. The
experimental results on commonly used datasets for image co-segmentation
demonstrate the effectiveness of our presented dense structure and edge
enhanced 3D IOU loss of SNDM. To our best knowledge, they lead to the
state-of-the-art performance on the Internet and iCoseg datasets.
- Abstract(参考訳): 画像のコセグメンテーションはコンピュータビジョンコミュニティで多くの注目を集めている。
本稿では,siamese u-netのデコーダパスに密接な接続を導入することにより,画像共セグメンテーションへの新たなアプローチを提案し,距離マップ上で測定した新しいエッジ強化3次元iou損失を提案する。
符号付き正規化距離マップ(SNDM)と二値分割マスクとの厳密なマッピングを考慮し、元の画像から直接SNDMを推定し、分割結果を決定する。
本稿では,この問題を解決するために,シームズU-netを適用し,各層をデコーダパス内の後続層と密結合することにより,その有効性を向上させる。
さらに、生成されたSNDMとラベル付きSNDMとの3次元結合(IOU)を測定するために、新たな学習損失が設計された。
画像のコセグメンテーションによく用いられるデータセットを用いた実験結果から, 提案した高密度構造の有効性と, SNDMの3次元IOU損失の改善効果が示された。
私たちの知る限りでは、インターネットとiCosegデータセットの最先端のパフォーマンスにつながります。
関連論文リスト
- De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Improved distinct bone segmentation in upper-body CT through
multi-resolution networks [0.39583175274885335]
上半身CTと異なる骨分画では、大きな視野と計算的な3Dアーキテクチャが必要とされる。
これにより、空間的コンテキストの欠如により、細部や局所的な誤差を欠いた低解像度な結果が得られる。
本稿では,異なる解像度で動作する複数の3次元U-Netを組み合わせたエンドツーエンドのトレーニング可能なセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-31T14:46:16Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - 3D U-NetR: Low Dose Computed Tomography Reconstruction via Deep Learning
and 3 Dimensional Convolutions [0.0]
3D U-NetRは、2Dネットワークでは可視化できない、医療的に重要な視覚的詳細をキャプチャする。
さらに重要なのは、3D U-NetRは、2Dネットワークで可視化できない、医療的に重要な視覚的詳細をキャプチャする。
論文 参考訳(メタデータ) (2021-05-28T22:37:50Z) - MDA-Net: Multi-Dimensional Attention-Based Neural Network for 3D Image
Segmentation [4.221871357181261]
マルチ次元アテンションネットワーク(MDA-Net)を提案し,スライスワイド,空間,チャネルワイドアテンションを効率よくU-Netネットワークに統合する。
MICCAI iSegおよびIBSRデータセット上のモデルを評価し、実験結果が既存の方法よりも一貫した改善を示した。
論文 参考訳(メタデータ) (2021-05-10T16:58:34Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Geometry-Aware Segmentation of Remote Sensing Images via Implicit Height
Estimation [15.900382629390297]
航空画像の正確なセマンティックラベリングを関節高さ推定により達成する幾何認識セグメンテーションモデルを提案する。
本研究では,ハイトデコーダ分岐から3次元幾何学的特徴とセマンティックセグメンテーション分岐から2次元文脈的特徴を融合した新しい幾何学的認識型畳み込みモジュールを開発する。
提案したモデルでは,手作りの機能や後処理を使わずに,両方のデータセットで顕著なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-06-10T14:24:10Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - Attention-based Multi-modal Fusion Network for Semantic Scene Completion [35.93265545962268]
本稿では,セマンティック・シーン・コンプリート(SSC)タスクのための,アテンションベースマルチモーダル・フュージョン・ネットワーク(AMFNet)というエンドツーエンドの3D畳み込みネットワークを提案する。
RGB-D画像から抽出した意味的特徴のみを利用する従来の手法と比較して,提案するAMFNetは,効果的な3Dシーン補完とセマンティックセグメンテーションを同時に行うことを学習する。
2次元セマンティックセグメンテーションと、3次元セマンティックコンプリートネットワークにより強化されたマルチモーダルフュージョンアーキテクチャを用いて実現されている。
論文 参考訳(メタデータ) (2020-03-31T02:00:03Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。