論文の概要: Zero-shot Unsupervised Transfer Instance Segmentation
- arxiv url: http://arxiv.org/abs/2304.14376v1
- Date: Thu, 27 Apr 2023 17:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 12:14:18.888788
- Title: Zero-shot Unsupervised Transfer Instance Segmentation
- Title(参考訳): ゼロショット非教師あり転送インスタンスセグメンテーション
- Authors: Gyungin Shin, Samuel Albanie, Weidi Xie
- Abstract要約: 本稿では,Zero-shot Unsupervised Transfer Instance (ZUTIS)を提案する。
ZUTISは、インスタンスレベルのアノテーションやピクセルレベルのアノテーション、(ii)ゼロショット転送の能力、およびターゲットデータ配布へのアクセスに関する前提を持たない。
ZUTISはCOCO-20Kでは2.2マスクAP、ImageNet-Sでは14.5mIoU、例えば919のカテゴリではセマンティックセグメンテーションを実現している。
- 参考スコア(独自算出の注目度): 44.388120096898554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation is a core computer vision competency, with applications spanning
a broad range of scientifically and economically valuable domains. To date,
however, the prohibitive cost of annotation has limited the deployment of
flexible segmentation models. In this work, we propose Zero-shot Unsupervised
Transfer Instance Segmentation (ZUTIS), a framework that aims to meet this
challenge. The key strengths of ZUTIS are: (i) no requirement for
instance-level or pixel-level annotations; (ii) an ability of zero-shot
transfer, i.e., no assumption on access to a target data distribution; (iii) a
unified framework for semantic and instance segmentations with solid
performance on both tasks compared to state-of-the-art unsupervised methods.
While comparing to previous work, we show ZUTIS achieves a gain of 2.2 mask AP
on COCO-20K and 14.5 mIoU on ImageNet-S with 919 categories for instance and
semantic segmentations, respectively. The code is made publicly available.
- Abstract(参考訳): セグメンテーションは、様々な科学的、経済的に価値のある領域にまたがる、コアコンピュータビジョン能力である。
しかし、これまでアノテーションの禁止コストは、柔軟なセグメンテーションモデルのデプロイを制限してきた。
本稿では,この課題を克服するためのフレームワークであるzutis(zero-shot unsupervised transfer instance segmentation)を提案する。
ZUTISの主な強みは次のとおりである。
(i)インスタンスレベル又はピクセルレベルアノテーションの要件はない。
二 ゼロショット転送の能力、すなわち、対象データ流通へのアクセスを前提としないこと。
(iii)最先端の教師なし手法と比較して、両方のタスクでしっかりとしたパフォーマンスを持つセグメンテーションとインスタンスセグメンテーションの統一フレームワーク。
従来の研究と比較すると、ZUTISはCOCO-20Kで2.2マスクAP、ImageNet-Sで14.5mIoU、例とセマンティックセグメンテーションで919のカテゴリを達成している。
コードは公開されています。
関連論文リスト
- Physically Feasible Semantic Segmentation [58.17907376475596]
最先端セマンティックセグメンテーションモデルは通常、データ駆動方式で最適化される。
本手法は,空間的クラス関係を規定する明示的な物理的制約を抽出する。
PhyFeaは、使用する最先端ネットワーク毎にmIoUが大幅に向上する。
論文 参考訳(メタデータ) (2024-08-26T22:39:08Z) - Joint semi-supervised and contrastive learning enables zero-shot domain-adaptation and multi-domain segmentation [1.5393913074555419]
SegCLRは、さまざまなドメインにまたがってボリューム画像を分割するために設計された汎用的なフレームワークである。
総合評価により,SegCLRの優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-08T18:10:59Z) - Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - Unsupervised Camouflaged Object Segmentation as Domain Adaptation [5.304455190825436]
本研究では,対象オブジェクトが共通属性,すなわちカモフラージュ(camouflage)を所有する,教師なしカモフラージュオブジェクトセグメンテーション(UCOS)という新しいタスクについて検討する。
現状の教師なしモデルは、ジェネリックオブジェクトとカモフラーグオブジェクトのドメインギャップのため、UCOSの適応に苦慮している。
我々は、UCOSをソースフリーな教師なしドメイン適応タスク(UCOS-DA)として定式化し、モデルトレーニングプロセス全体において、ソースラベルとターゲットラベルの両方が欠落している。
論文 参考訳(メタデータ) (2023-08-08T18:46:16Z) - Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - Instance Segmentation of Unlabeled Modalities via Cyclic Segmentation
GAN [27.936725483892076]
本稿では,画像翻訳とインスタンスセグメンテーションを共同で行うCysic Generative Adrial Network(CySGAN)を提案する。
注記電子顕微鏡(en:Annotated electron microscopy, EM)画像とラベルなし拡張顕微鏡(en:Unlabeled expansion microscopy, ExM)データを用いて, ニューロンの3次元セグメンテーションの課題についてベンチマークを行った。
論文 参考訳(メタデータ) (2022-04-06T20:46:39Z) - FreeSOLO: Learning to Segment Objects without Annotations [191.82134817449528]
我々は,単純なインスタンスセグメンテーションメソッドSOLO上に構築された自己教師型インスタンスセグメンテーションフレームワークであるFreeSOLOを紹介する。
また,本手法では,複雑なシーンからオブジェクトを教師なしで検出する,新たなローカライズ対応事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-24T16:31:44Z) - A Simple Baseline for Zero-shot Semantic Segmentation with Pre-trained
Vision-language Model [61.58071099082296]
オブジェクト検出やセマンティックセグメンテーションといった、より広範な視覚問題に対して、ゼロショット認識をどのようにうまく機能させるかは定かではない。
本稿では,既訓練の視覚言語モデルであるCLIPを用いて,ゼロショットセマンティックセマンティックセマンティックセマンティクスを構築することを目的とした。
実験結果から, この単純なフレームワークは, 従来の最先端をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-12-29T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。