論文の概要: Self-Supervised Learning of Object Parts for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2204.13101v1
- Date: Wed, 27 Apr 2022 17:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:18:53.951353
- Title: Self-Supervised Learning of Object Parts for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのための物体部品の自己教師付き学習
- Authors: Adrian Ziegler, Yuki M. Asano
- Abstract要約: 我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
- 参考スコア(独自算出の注目度): 7.99536002595393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Progress in self-supervised learning has brought strong general image
representation learning methods. Yet so far, it has mostly focused on
image-level learning. In turn, tasks such as unsupervised image segmentation
have not benefited from this trend as they require spatially-diverse
representations. However, learning dense representations is challenging, as in
the unsupervised context it is not clear how to guide the model to learn
representations that correspond to various potential object categories. In this
paper, we argue that self-supervised learning of object parts is a solution to
this issue. Object parts are generalizable: they are a priori independent of an
object definition, but can be grouped to form objects a posteriori. To this
end, we leverage the recently proposed Vision Transformer's capability of
attending to objects and combine it with a spatially dense clustering task for
fine-tuning the spatial tokens. Our method surpasses the state-of-the-art on
three semantic segmentation benchmarks by 17%-3%, showing that our
representations are versatile under various object definitions. Finally, we
extend this to fully unsupervised segmentation - which refrains completely from
using label information even at test-time - and demonstrate that a simple
method for automatically merging discovered object parts based on community
detection yields substantial gains.
- Abstract(参考訳): 自己教師あり学習の進歩は、強固な一般イメージ表現学習法をもたらした。
しかしこれまでは主に画像レベルの学習に力を入れてきた。
逆に、教師なし画像分割のようなタスクは、空間的に異なる表現を必要とするため、この傾向から恩恵を受けていない。
しかし、密表現の学習は困難であり、教師なしの文脈では、モデルが様々な潜在的な対象カテゴリに対応する表現を学習する方法が明確でない。
本稿では,オブジェクト部分の自己教師型学習がこの問題の解決法である,と論じる。
オブジェクト部品は、オブジェクト定義とは無関係に優先順位を持つが、後続のオブジェクトを形成するためにグループ化することができる。
この目的のために,最近提案されている視覚トランスフォーマーの物体への出席能力と,空間トークンの微調整のための空間密集型クラスタリングタスクを組み合わせる。
提案手法は,3つの意味セグメンテーションベンチマークの最先端を17%-3%上回り,様々なオブジェクト定義の下での表現が汎用性を示す。
最後に、これを完全教師なしセグメンテーションに拡張し、テスト時でもラベル情報を完全に使用しないことを回避し、コミュニティ検出に基づいて発見されたオブジェクト部品を自動的にマージする簡単な方法がかなりの利益をもたらすことを示した。
関連論文リスト
- Towards Open-World Segmentation of Parts [16.056921233445784]
本稿では,クラスに依存しない部分分割タスクを提案する。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えない部分のローカライズとオブジェクトへのセグメンテーションを改善することができる、と私たちは主張する。
当社のアプローチでは,オープンワールドのパートセグメンテーションに向けた重要なステップとして,注目すべきかつ一貫した成果をあげています。
論文 参考訳(メタデータ) (2023-05-26T10:34:58Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Unsupervised Part Discovery by Unsupervised Disentanglement [10.664434993386525]
部分分割は、個々のピクセルのレベルにおける部分ローカライゼーションに関する情報を提供する。
大きなアノテーションのコストは、教師付きアルゴリズムのスケーラビリティを他のオブジェクトカテゴリに制限します。
我々の研究は、監督なしに意味的部分のセグメンテーションを発見できる可能性を示している。
論文 参考訳(メタデータ) (2020-09-09T12:34:37Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Look-into-Object: Self-supervised Structure Modeling for Object
Recognition [71.68524003173219]
我々は,自己スーパービジョンを取り入れた「対象」(具体的かつ内在的に対象構造をモデル化する)を提案する。
認識バックボーンは、より堅牢な表現学習のために大幅に拡張可能であることを示す。
提案手法は汎用オブジェクト認識(ImageNet)や細粒度オブジェクト認識タスク(CUB, Cars, Aircraft)など,多数のベンチマークにおいて大きなパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-03-31T12:22:51Z) - Global-Local Bidirectional Reasoning for Unsupervised Representation
Learning of 3D Point Clouds [109.0016923028653]
局所構造とグローバル形状の双方向推論による点雲表現を人間の監督なしに学習する。
本研究では, 実世界の3次元オブジェクト分類データセットにおいて, 教師なしモデルが最先端の教師付き手法を超越していることを示す。
論文 参考訳(メタデータ) (2020-03-29T08:26:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。