論文の概要: Zero-shot Unsupervised Transfer Instance Segmentation
- arxiv url: http://arxiv.org/abs/2304.14376v1
- Date: Thu, 27 Apr 2023 17:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 12:14:18.888788
- Title: Zero-shot Unsupervised Transfer Instance Segmentation
- Title(参考訳): ゼロショット非教師あり転送インスタンスセグメンテーション
- Authors: Gyungin Shin, Samuel Albanie, Weidi Xie
- Abstract要約: 本稿では,Zero-shot Unsupervised Transfer Instance (ZUTIS)を提案する。
ZUTISは、インスタンスレベルのアノテーションやピクセルレベルのアノテーション、(ii)ゼロショット転送の能力、およびターゲットデータ配布へのアクセスに関する前提を持たない。
ZUTISはCOCO-20Kでは2.2マスクAP、ImageNet-Sでは14.5mIoU、例えば919のカテゴリではセマンティックセグメンテーションを実現している。
- 参考スコア(独自算出の注目度): 44.388120096898554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation is a core computer vision competency, with applications spanning
a broad range of scientifically and economically valuable domains. To date,
however, the prohibitive cost of annotation has limited the deployment of
flexible segmentation models. In this work, we propose Zero-shot Unsupervised
Transfer Instance Segmentation (ZUTIS), a framework that aims to meet this
challenge. The key strengths of ZUTIS are: (i) no requirement for
instance-level or pixel-level annotations; (ii) an ability of zero-shot
transfer, i.e., no assumption on access to a target data distribution; (iii) a
unified framework for semantic and instance segmentations with solid
performance on both tasks compared to state-of-the-art unsupervised methods.
While comparing to previous work, we show ZUTIS achieves a gain of 2.2 mask AP
on COCO-20K and 14.5 mIoU on ImageNet-S with 919 categories for instance and
semantic segmentations, respectively. The code is made publicly available.
- Abstract(参考訳): セグメンテーションは、様々な科学的、経済的に価値のある領域にまたがる、コアコンピュータビジョン能力である。
しかし、これまでアノテーションの禁止コストは、柔軟なセグメンテーションモデルのデプロイを制限してきた。
本稿では,この課題を克服するためのフレームワークであるzutis(zero-shot unsupervised transfer instance segmentation)を提案する。
ZUTISの主な強みは次のとおりである。
(i)インスタンスレベル又はピクセルレベルアノテーションの要件はない。
二 ゼロショット転送の能力、すなわち、対象データ流通へのアクセスを前提としないこと。
(iii)最先端の教師なし手法と比較して、両方のタスクでしっかりとしたパフォーマンスを持つセグメンテーションとインスタンスセグメンテーションの統一フレームワーク。
従来の研究と比較すると、ZUTISはCOCO-20Kで2.2マスクAP、ImageNet-Sで14.5mIoU、例とセマンティックセグメンテーションで919のカテゴリを達成している。
コードは公開されています。
関連論文リスト
- Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - SAM-Assisted Remote Sensing Imagery Semantic Segmentation with Object
and Boundary Constraints [9.238103649037951]
本稿では,SAM生成オブジェクト(SGO)とSAM生成境界(SGB)という2つの新しい概念を活用することにより,SAMの生出力を活用するフレームワークを提案する。
本稿では,SGOのコンテンツ特性を考慮し,セマンティックな情報を持たないセグメンテーション領域を活用するために,オブジェクト整合性の概念を導入する。
境界損失は、モデルが対象の境界情報に注意を向けることによって、SGBの特徴的な特徴に重きを置いている。
論文 参考訳(メタデータ) (2023-12-05T03:33:47Z) - Unsupervised Camouflaged Object Segmentation as Domain Adaptation [5.304455190825436]
本研究では,対象オブジェクトが共通属性,すなわちカモフラージュ(camouflage)を所有する,教師なしカモフラージュオブジェクトセグメンテーション(UCOS)という新しいタスクについて検討する。
現状の教師なしモデルは、ジェネリックオブジェクトとカモフラーグオブジェクトのドメインギャップのため、UCOSの適応に苦慮している。
我々は、UCOSをソースフリーな教師なしドメイン適応タスク(UCOS-DA)として定式化し、モデルトレーニングプロセス全体において、ソースラベルとターゲットラベルの両方が欠落している。
論文 参考訳(メタデータ) (2023-08-08T18:46:16Z) - Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - ReCo: Retrieve and Co-segment for Zero-shot Transfer [44.388120096898554]
Retrieve and Co-segment (ReCo)は、名前付き予測とゼロショット転送の利便性を継承しながら、教師なしセグメンテーションアプローチに好適に機能する。
また、非常に稀なオブジェクトのセグメンテーションをReCoが生成できることを実証する。
論文 参考訳(メタデータ) (2022-06-14T17:59:31Z) - Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation [63.910211095033596]
少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:21:14Z) - Instance Segmentation of Unlabeled Modalities via Cyclic Segmentation
GAN [27.936725483892076]
本稿では,画像翻訳とインスタンスセグメンテーションを共同で行うCysic Generative Adrial Network(CySGAN)を提案する。
注記電子顕微鏡(en:Annotated electron microscopy, EM)画像とラベルなし拡張顕微鏡(en:Unlabeled expansion microscopy, ExM)データを用いて, ニューロンの3次元セグメンテーションの課題についてベンチマークを行った。
論文 参考訳(メタデータ) (2022-04-06T20:46:39Z) - FreeSOLO: Learning to Segment Objects without Annotations [191.82134817449528]
我々は,単純なインスタンスセグメンテーションメソッドSOLO上に構築された自己教師型インスタンスセグメンテーションフレームワークであるFreeSOLOを紹介する。
また,本手法では,複雑なシーンからオブジェクトを教師なしで検出する,新たなローカライズ対応事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-24T16:31:44Z) - A Simple Baseline for Zero-shot Semantic Segmentation with Pre-trained
Vision-language Model [61.58071099082296]
オブジェクト検出やセマンティックセグメンテーションといった、より広範な視覚問題に対して、ゼロショット認識をどのようにうまく機能させるかは定かではない。
本稿では,既訓練の視覚言語モデルであるCLIPを用いて,ゼロショットセマンティックセマンティックセマンティックセマンティクスを構築することを目的とした。
実験結果から, この単純なフレームワークは, 従来の最先端をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-12-29T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。