論文の概要: Pixel-Level Clustering Network for Unsupervised Image Segmentation
- arxiv url: http://arxiv.org/abs/2310.16234v1
- Date: Tue, 24 Oct 2023 23:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 17:49:43.487345
- Title: Pixel-Level Clustering Network for Unsupervised Image Segmentation
- Title(参考訳): 教師なし画像セグメンテーションのための画素レベルクラスタリングネットワーク
- Authors: Cuong Manh Hoang and Byeongkeun Kang
- Abstract要約: 画像の領域分割のためのピクセルレベルのクラスタリングフレームワークを,地上の真理アノテーションを使わずに提案する。
また、各スーパーピクセル間の一貫性、隣接するスーパーピクセル間の相似性/相似性、画像間の構造的類似性を利用したトレーニング戦略を提案する。
- 参考スコア(独自算出の注目度): 3.69853388955692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While image segmentation is crucial in various computer vision applications,
such as autonomous driving, grasping, and robot navigation, annotating all
objects at the pixel-level for training is nearly impossible. Therefore, the
study of unsupervised image segmentation methods is essential. In this paper,
we present a pixel-level clustering framework for segmenting images into
regions without using ground truth annotations. The proposed framework includes
feature embedding modules with an attention mechanism, a feature statistics
computing module, image reconstruction, and superpixel segmentation to achieve
accurate unsupervised segmentation. Additionally, we propose a training
strategy that utilizes intra-consistency within each superpixel,
inter-similarity/dissimilarity between neighboring superpixels, and structural
similarity between images. To avoid potential over-segmentation caused by
superpixel-based losses, we also propose a post-processing method. Furthermore,
we present an extension of the proposed method for unsupervised semantic
segmentation. We conducted experiments on three publicly available datasets
(Berkeley segmentation dataset, PASCAL VOC 2012 dataset, and COCO-Stuff
dataset) to demonstrate the effectiveness of the proposed framework. The
experimental results show that the proposed framework outperforms previous
state-of-the-art methods.
- Abstract(参考訳): 画像分割は、自動運転、把持、ロボットナビゲーションなどの様々なコンピュータビジョンアプリケーションにおいて不可欠であるが、トレーニングのためにピクセルレベルですべてのオブジェクトに注釈を付けることはほぼ不可能である。
したがって、教師なし画像分割法の研究は不可欠である。
本稿では,画像の領域分割のためのピクセルレベルのクラスタリングフレームワークを提案する。
提案フレームワークは、注意機構を備えた機能埋め込みモジュール、特徴統計計算モジュール、画像再構成、および高精度な教師なしセグメンテーションを実現するスーパーピクセルセグメンテーションを含む。
さらに,各スーパーピクセル間の一貫性,隣接スーパーピクセル間の相似/相似性,画像間の構造相似性を利用したトレーニング戦略を提案する。
また,スーパーピクセルによる損失による過大セグメント化を回避するため,ポストプロセッシング手法を提案する。
さらに,教師なしセマンティックセグメンテーションのための提案手法の拡張を提案する。
提案フレームワークの有効性を実証するために,3つの公開データセット(berkeley segmentation dataset,pascal voc 2012 dataset,coco-stuff dataset)について実験を行った。
実験の結果,提案手法は従来の最先端手法よりも優れていた。
関連論文リスト
- Freestyle Sketch-in-the-Loop Image Segmentation [116.1810651297801]
そこで我々は,視覚概念を部分的に,完全に,あるいはグループ化することで,視覚概念のセグメンテーションを可能にする,スケッチ・イン・ザ・ループ(sketch-in-the-loop)イメージセグメンテーションフレームワークを提案する。
このフレームワークは、スケッチベースの画像検索モデルと大規模事前学習モデルとの相乗効果を生かしている。
我々の目的による拡張戦略は、スケッチ誘導マスク生成の汎用性を高め、複数のレベルでセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2025-01-27T13:07:51Z) - UnSegGNet: Unsupervised Image Segmentation using Graph Neural Networks [9.268228808049951]
この研究は、教師なし医療画像とコンピュータビジョンの幅広い分野に貢献する。
これは、現実世界の課題に沿うイメージセグメンテーションのための革新的な方法論である。
提案手法は,医用画像,リモートセンシング,物体認識など,多様な応用の可能性を秘めている。
論文 参考訳(メタデータ) (2024-05-09T19:02:00Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - CRIS: CLIP-Driven Referring Image Segmentation [71.56466057776086]
エンドツーエンドのCLIP駆動参照画像フレームワーク(CRIS)を提案する。
CRISは、テキストとピクセルのアライメントを達成するために、視覚言語によるデコーディングとコントラスト学習に頼っている。
提案するフレームワークは, 後処理を伴わずに, 最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-11-30T07:29:08Z) - Mining Contextual Information Beyond Image for Semantic Segmentation [37.783233906684444]
セマンティックイメージセグメンテーションにおける文脈集約問題について検討する。
個々の画像以外の文脈情報をマイニングして、ピクセル表現をさらに強化することを提案する。
提案手法は,既存のセグメンテーションフレームワークに強制的に組み込むことができる。
論文 参考訳(メタデータ) (2021-08-26T14:34:23Z) - Unsupervised Image Segmentation by Mutual Information Maximization and
Adversarial Regularization [7.165364364478119]
InMARS(Information Maximization and Adrial Regularization)と呼ばれる新しい教師なしセマンティックセマンティックセマンティクス手法を提案する。
シーンを知覚群に解析する人間の知覚に触発され、提案手法はまず、入力画像を意味のある領域(スーパーピクセルとも呼ばれる)に分割する。
次に、相互情報最大化(Multual-Information-Maximization)と、それらの領域を意味論的に意味のあるクラスにクラスタ化するための敵対的トレーニング戦略を利用する。
提案手法は2つの非教師付きセマンティックセグメンテーションデータセット上での最先端性能を実現することを実証した。
論文 参考訳(メタデータ) (2021-07-01T18:36:27Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - Superpixel Segmentation Based on Spatially Constrained Subspace
Clustering [57.76302397774641]
独立意味情報を持つ各代表領域を部分空間とみなし,部分空間クラスタリング問題としてスーパーピクセルセグメンテーションを定式化する。
従来のサブスペースクラスタリングとスーパーピクセルセグメンテーションの簡単な統合は,画素の空間相関のために効果的に機能しないことを示す。
本稿では,空間隣接画素に類似の属性を付加してスーパーピクセルにクラスタリング可能な,凸局所性制約付きサブスペースクラスタリングモデルを提案する。
論文 参考訳(メタデータ) (2020-12-11T06:18:36Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Visual Object Tracking by Segmentation with Graph Convolutional Network [7.729569666460712]
グラフ畳み込みネットワーク(GCN)モデルを用いて,スーパーピクセルベースのオブジェクトトラッキングを提案する。
提案モデルは,i)ラベル線形予測とi)各スーパーピクセルの構造認識特徴情報を統合した,汎用的なエンドツーエンドフレームワークを提供する。
論文 参考訳(メタデータ) (2020-09-05T12:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。