論文の概要: AINet: Association Implantation for Superpixel Segmentation
- arxiv url: http://arxiv.org/abs/2101.10696v1
- Date: Tue, 26 Jan 2021 10:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 10:29:16.161656
- Title: AINet: Association Implantation for Superpixel Segmentation
- Title(参考訳): AINet:Superpixel SegmentationのAssociation Implantation
- Authors: Yaxiong Wang, Yunchao Wei, Xueming Qian, Li Zhu, Yi Yang
- Abstract要約: 今回提案する新しいtextbfAssociation textbfImplantation(AI)モジュールは、ネットワークがピクセルとその周辺グリッド間の関係を明示的にキャプチャすることを可能にする。
本手法は最先端性能を実現するだけでなく,十分な推論効率を維持することができた。
- 参考スコア(独自算出の注目度): 82.21559299694555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, some approaches are proposed to harness deep convolutional networks
to facilitate superpixel segmentation. The common practice is to first evenly
divide the image into a pre-defined number of grids and then learn to associate
each pixel with its surrounding grids. However, simply applying a series of
convolution operations with limited receptive fields can only implicitly
perceive the relations between the pixel and its surrounding grids.
Consequently, existing methods often fail to provide an effective context when
inferring the association map. To remedy this issue, we propose a novel
\textbf{A}ssociation \textbf{I}mplantation (AI) module to enable the network to
explicitly capture the relations between the pixel and its surrounding grids.
The proposed AI module directly implants the features of grid cells to the
surrounding of its corresponding central pixel, and conducts convolution on the
padded window to adaptively transfer knowledge between them. With such an
implantation operation, the network could explicitly harvest the pixel-grid
level context, which is more in line with the target of superpixel segmentation
comparing to the pixel-wise relation. Furthermore, to pursue better boundary
precision, we design a boundary-perceiving loss to help the network
discriminate the pixels around boundaries in hidden feature level, which could
benefit the subsequent inferring modules to accurately identify more boundary
pixels. Extensive experiments on BSDS500 and NYUv2 datasets show that our
method could not only achieve state-of-the-art performance but maintain
satisfactory inference efficiency.
- Abstract(参考訳): 近年,深層畳み込みネットワークを利用してスーパーピクセルのセグメンテーションを容易にする手法が提案されている。
一般的なプラクティスは、まず画像を事前に定義されたグリッド数に均等に分割し、各ピクセルを周囲のグリッドと関連付けることを学ぶことです。
しかし、限られた受容体を持つ一連の畳み込み演算を適用するだけで、ピクセルとその周辺グリッドの関係を暗黙的に知覚できるだけである。
したがって、既存のメソッドはアソシエーションマップを推論する際に効果的なコンテキストを提供しないことが多い。
そこで本研究では,ネットワークが画素とその周辺格子の関係を明示的に捉えることを可能にする新しい \textbf{A}ssociation \textbf{I}mplantation (AI) モジュールを提案する。
提案したAIモジュールは、グリッドセルの特徴を対応する中央画素の周囲に直接注入し、パッドウィンドウ上で畳み込みを行い、それらの間の知識を適応的に伝達する。
このような埋め込み操作により、ネットワークは、ピクセル-グリッドレベルのコンテキストを明示的に取り出すことができ、これは、ピクセル-ワイド関係と比較して、スーパーピクセルセグメンテーションのターゲットとより一致している。
さらに、より高い境界精度を追求するために、ネットワークが隠れた特徴レベルで境界周辺のピクセルを識別するのに役立つ境界知覚損失を設計します。
BSDS500およびNYUv2データセットに関する広範な実験は、我々の手法が最先端のパフォーマンスを達成するだけでなく、十分な推論効率を維持することを示した。
関連論文リスト
- FuseNet: Self-Supervised Dual-Path Network for Medical Image
Segmentation [3.485615723221064]
FuseNetは、自己教師型セマンティックセグメンテーションのためのデュアルストリームフレームワークである。
クロスモーダル融合技術は、テキストデータを拡張画像に置き換えることで、CLIPの原理を拡張している。
皮膚病変と肺分画データセットの実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-22T00:03:16Z) - ReFit: A Framework for Refinement of Weakly Supervised Semantic
Segmentation using Object Border Fitting for Medical Images [4.945138408504987]
Weakly Supervised Semantic (WSSS)は、画像レベルの監視のみに依存しているため、ネットワークの必要性に対処する上で有望なアプローチである。
本稿では,最新クラスのアクティベーションマップとポストプロセッシング手法を組み合わせたReFitフレームワークを提案する。
本手法をWSSS予測に適用することにより,医用画像の最先端WSSS法に対して最大10%の改善を実現した。
論文 参考訳(メタデータ) (2023-03-14T12:46:52Z) - Pixel Relationships-based Regularizer for Retinal Vessel Image
Segmentation [4.3251090426112695]
本研究は, 正則化器を用いて, 学習プロセスに画素近傍の関係情報を付与する。
実験により,提案手法は画素近傍関係の捕捉に成功し,畳み込みニューラルネットワークの性能向上を図っている。
論文 参考訳(メタデータ) (2022-12-28T07:35:20Z) - From Explanations to Segmentation: Using Explainable AI for Image
Segmentation [1.8581514902689347]
我々は、説明可能なAI(XAI)コミュニティの進歩の上に構築し、ピクセル単位のバイナリセグメンテーションを抽出する。
我々は,既存のU-Netセグメンテーションアーキテクチャと比較して,同様の結果が得られることを示す。
トレーニングサンプルは画像レベルでのみラベル付けする必要があるため,提案手法は弱教師付きでトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-01T10:26:10Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z) - Superpixel Segmentation Based on Spatially Constrained Subspace
Clustering [57.76302397774641]
独立意味情報を持つ各代表領域を部分空間とみなし,部分空間クラスタリング問題としてスーパーピクセルセグメンテーションを定式化する。
従来のサブスペースクラスタリングとスーパーピクセルセグメンテーションの簡単な統合は,画素の空間相関のために効果的に機能しないことを示す。
本稿では,空間隣接画素に類似の属性を付加してスーパーピクセルにクラスタリング可能な,凸局所性制約付きサブスペースクラスタリングモデルを提案する。
論文 参考訳(メタデータ) (2020-12-11T06:18:36Z) - An Empirical Method to Quantify the Peripheral Performance Degradation
in Deep Networks [18.808132632482103]
畳み込みニューラルネットワーク(CNN)カーネルは、各畳み込み層に結合する。
より深いネットワークとストライドベースのダウンサンプリングを組み合わせることで、この領域の伝播は、画像の無視できない部分をカバーすることができる。
我々のデータセットは、高解像度の背景にオブジェクトを挿入することで構築され、画像境界に対してターゲットオブジェクトを特定の位置に配置するサブイメージを収穫することができる。
マスクR-CNNの動作を目標位置の選択にわたって探索することにより、画像境界付近、特に画像コーナーにおいて、パフォーマンス劣化の明確なパターンが明らかになる。
論文 参考訳(メタデータ) (2020-12-04T18:00:47Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Weakly-Supervised Semantic Segmentation by Iterative Affinity Learning [86.45526827323954]
弱教師付きセマンティックセグメンテーションは、トレーニングのためにピクセル単位のラベル情報が提供されないため、難しい課題である。
このようなペア関係を学習するための反復アルゴリズムを提案する。
本稿では,提案アルゴリズムが最先端手法に対して好適に動作することを示す。
論文 参考訳(メタデータ) (2020-02-19T10:32:03Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。