論文の概要: Unsupervised Foreground Extraction via Deep Region Competition
- arxiv url: http://arxiv.org/abs/2110.15497v4
- Date: Wed, 4 Oct 2023 22:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 23:46:18.699123
- Title: Unsupervised Foreground Extraction via Deep Region Competition
- Title(参考訳): 深部地域競争による非教師なし前景抽出
- Authors: Peiyu Yu, Sirui Xie, Xiaojian Ma, Yixin Zhu, Ying Nian Wu, Song-Chun
Zhu
- Abstract要約: ディープ・リージョン・コンペティション(Deep Region Competition, DRC)は、画像から前景オブジェクトを教師なしで抽出するアルゴリズムである。
DRCは、複雑な実世界のデータに対してより競争力のある性能を示し、従来の手法と比較して多目的シーンに挑戦する。
- 参考スコア(独自算出の注目度): 102.82027848217908
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present Deep Region Competition (DRC), an algorithm designed to extract
foreground objects from images in a fully unsupervised manner. Foreground
extraction can be viewed as a special case of generic image segmentation that
focuses on identifying and disentangling objects from the background. In this
work, we rethink the foreground extraction by reconciling energy-based prior
with generative image modeling in the form of Mixture of Experts (MoE), where
we further introduce the learned pixel re-assignment as the essential inductive
bias to capture the regularities of background regions. With this modeling, the
foreground-background partition can be naturally found through
Expectation-Maximization (EM). We show that the proposed method effectively
exploits the interaction between the mixture components during the partitioning
process, which closely connects to region competition, a seminal approach for
generic image segmentation. Experiments demonstrate that DRC exhibits more
competitive performances on complex real-world data and challenging
multi-object scenes compared with prior methods. Moreover, we show empirically
that DRC can potentially generalize to novel foreground objects even from
categories unseen during training.
- Abstract(参考訳): 本研究では,画像から前方の物体を完全に教師なしで抽出するアルゴリズムであるdeep region competition (drc)を提案する。
前景抽出は、背景からオブジェクトを識別し、分離することに焦点を当てたジェネリックイメージセグメンテーションの特別なケースと見なすことができる。
本研究では,前景抽出を,エネルギーベース先行と生成的画像モデリングの融合(moe)によって再検討し,背景領域の正則性を捉えるための本質的帰納的バイアスとして学習画素再割り当てを導入する。
このモデリングにより、フォアグラウンドとバックグラウンドのパーティションは、期待-最大化(EM)によって自然に見つけることができる。
提案手法は分割過程において混合成分間の相互作用を効果的に活用し, 画像分割のための独創的手法である領域競合と密接に関連していることを示す。
実験により、DRCは複雑な実世界のデータに対してより競争力のある性能を示し、従来の手法と比較して多目的シーンに挑戦することを示した。
さらに,DRCはトレーニング中に見えないカテゴリからでも,新しい前景オブジェクトに一般化できる可能性が実証的に示された。
関連論文リスト
- Segment Anything Model Meets Image Harmonization [13.415810438244788]
合成画像の前景を調整して背景をシームレスに整合させることを目的とした画像合成において,画像調和は重要な技術である。
現在の手法では、グローバルレベルまたはピクセルレベルの特徴マッチングが採用されている。
本研究では,前景と背景特徴の視覚的一貫性学習を導くために,事前学習したセグメンテーションモデル(SAM)によって出力されるセグメンテーションマップを利用する意味誘導型領域認識型インスタンス正規化(SRIN)を提案する。
論文 参考訳(メタデータ) (2023-12-20T02:57:21Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Deep Spectral Methods: A Surprisingly Strong Baseline for Unsupervised
Semantic Segmentation and Localization [98.46318529630109]
画像分解をグラフ分割問題として再フレーミングすることで,従来のスペクトル分割法から着想を得た。
これらの固有ベクトルはすでにイメージを意味のあるセグメントに分解しており、シーン内のオブジェクトのローカライズに容易に利用できる。
データセットにまたがるこれらのセグメントに関連する機能をクラスタ化することで、明確に定義された、名前付き可能なリージョンを得ることができる。
論文 参考訳(メタデータ) (2022-05-16T17:47:44Z) - Cross-Image Region Mining with Region Prototypical Network for Weakly
Supervised Segmentation [45.39679291105364]
トレーニングセットのクロスイメージオブジェクトの多様性を探索する領域ネットワークRPNetを提案する。
画像にまたがる類似の物体は、地域特徴比較によって識別される。
実験の結果,提案手法はより完全で正確な擬似物体マスクを生成することがわかった。
論文 参考訳(メタデータ) (2021-08-17T02:51:02Z) - DOLG: Single-Stage Image Retrieval with Deep Orthogonal Fusion of Local
and Global Features [42.62089148690047]
エンドツーエンドの画像検索のための情報融合フレームワークとして,Deep Orthogonal Local and Global (DOLG)を提案する。
マルチアトラスな畳み込みと自己注意によって、代表的ローカル情報を注意深く抽出する。
フレームワーク全体がエンドツーエンドの差別化が可能で、イメージレベルのラベルでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-08-06T03:14:09Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。