論文の概要: PartImageNet: A Large, High-Quality Dataset of Parts
- arxiv url: http://arxiv.org/abs/2112.00933v1
- Date: Thu, 2 Dec 2021 02:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:34:40.695255
- Title: PartImageNet: A Large, High-Quality Dataset of Parts
- Title(参考訳): PartImageNet: 大規模で高品質なパーツデータセット
- Authors: Ju He, Shuo Yang, Shaokang Yang, Adam Kortylewski, Xiaoding Yuan,
Jie-Neng Chen, Shuai Liu, Cheng Yang, Alan Yuille
- Abstract要約: パートセグメンテーションアノテーションを備えた高品質なデータセットであるPartImageNetを提案する。
PartImageNetは、非厳密で明示的なオブジェクトを持つ一般的なクラスのセットに、部分レベルのアノテーションを提供するため、ユニークなものだ。
複数の視覚タスクで使用できるが、制限はない:Part Discovery、Few-shot Learning。
- 参考スコア(独自算出の注目度): 16.730418538593703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A part-based object understanding facilitates efficient compositional
learning and knowledge transfer, robustness to occlusion, and has the potential
to increase the performance on general recognition and localization tasks.
However, research on part-based models is hindered due to the lack of datasets
with part annotations, which is caused by the extreme difficulty and high cost
of annotating object parts in images. In this paper, we propose PartImageNet, a
large, high-quality dataset with part segmentation annotations. It consists of
158 classes from ImageNet with approximately 24000 images. PartImageNet is
unique because it offers part-level annotations on a general set of classes
with non-rigid, articulated objects, while having an order of magnitude larger
size compared to existing datasets. It can be utilized in multiple vision tasks
including but not limited to: Part Discovery, Semantic Segmentation, Few-shot
Learning. Comprehensive experiments are conducted to set up a set of baselines
on PartImageNet and we find that existing works on part discovery can not
always produce satisfactory results during complex variations. The exploit of
parts on downstream tasks also remains insufficient. We believe that our
PartImageNet will greatly facilitate the research on part-based models and
their applications. The dataset and scripts will soon be released at
https://github.com/TACJu/PartImageNet.
- Abstract(参考訳): 部分的オブジェクト理解は、効率的な構成学習と知識伝達を促進し、閉塞に対する堅牢性を高め、一般認識および局所化タスクのパフォーマンスを高める可能性がある。
しかし、パートベースモデルの研究は、画像中のオブジェクト部分の注釈付けが極端に困難でコストが高いために、部分アノテーション付きデータセットが不足しているために妨げられている。
本稿では,パートセグメンテーションアノテーションを備えた大規模で高品質なデータセットであるPartImageNetを提案する。
ImageNetの158のクラスと約24,000のイメージで構成されている。
partimagenetは、既存のデータセットよりも桁違いに大きなサイズを持ちながら、非リグシッドなarticulatedオブジェクトを持つ一般的なクラスセットにパートレベルのアノテーションを提供するため、ユニークなものです。
これは、Part Discovery、Semantic Segmentation、Few-shot Learningなど、複数の視覚タスクで利用することができる。
PartImageNet上に一連のベースラインを設定するための総合的な実験を行い、複雑な変動の間、部分発見に関する既存の研究が必ずしも満足できる結果を生み出すとは限らないことを発見した。
下流タスクでの部品の活用も不十分である。
当社のPartImageNetは,パートベースモデルとそのアプリケーションの研究を大いに促進すると思います。
データセットとスクリプトは近くhttps://github.com/tacju/partimagenetでリリースされる。
関連論文リスト
- 1st Place Solution for MOSE Track in CVPR 2024 PVUW Workshop: Complex Video Object Segmentation [72.54357831350762]
本稿では,ビデオオブジェクトのセグメンテーションモデルを提案する。
我々は大規模ビデオオブジェクトセグメンテーションデータセットを用いてモデルを訓練した。
我々のモデルは、複雑なビデオオブジェクトチャレンジのテストセットで1位(textbf84.45%)を達成した。
論文 参考訳(メタデータ) (2024-06-07T03:13:46Z) - Inferring and Leveraging Parts from Object Shape for Improving Semantic
Image Synthesis [64.05076727277431]
本稿では、オブジェクトShapE(iPOSE)からパーツを推論し、セマンティック画像合成の改善に活用する。
我々は、事前に定義されたサポート部分マップのガイダンスを用いて、オブジェクト部分マップを予測するPartNetを学習する。
実験の結果,iPOSEは細部が豊富なオブジェクトを生成するだけでなく,画像合成を柔軟に制御できることがわかった。
論文 参考訳(メタデータ) (2023-05-31T04:27:47Z) - Towards Open-World Segmentation of Parts [16.056921233445784]
本稿では,クラスに依存しない部分分割タスクを提案する。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えない部分のローカライズとオブジェクトへのセグメンテーションを改善することができる、と私たちは主張する。
当社のアプローチでは,オープンワールドのパートセグメンテーションに向けた重要なステップとして,注目すべきかつ一貫した成果をあげています。
論文 参考訳(メタデータ) (2023-05-26T10:34:58Z) - Leveraging GAN Priors for Few-Shot Part Segmentation [43.35150430895919]
わずかなショット部分のセグメンテーションは、少数のサンプルしか与えられていないオブジェクトの異なる部分を切り離すことを目的としている。
本稿では,タスク固有の特徴を「事前学習」-「微調整」パラダイムで学習することを提案する。
論文 参考訳(メタデータ) (2022-07-27T10:17:07Z) - VizWiz-FewShot: Locating Objects in Images Taken by People With Visual
Impairments [74.72656607288185]
我々は、撮影した画像の視覚的内容について真に学ぼうとしていた写真家を起源とする、数発のローカライゼーションデータセットを紹介した。
視覚障害者が撮影した4500枚以上の画像に、100のカテゴリの約10,000のセグメンテーションが含まれている。
既存の数発のオブジェクト検出やインスタンスセグメンテーションデータセットと比較して、私たちのデータセットは、オブジェクトの穴を見つける最初のものです。
論文 参考訳(メタデータ) (2022-07-24T20:44:51Z) - 3D Compositional Zero-shot Learning with DeCompositional Consensus [102.7571947144639]
我々は、部分的知識は観察されたオブジェクトクラスを超えて構成可能であるべきだと論じる。
本稿では、視覚から見えないオブジェクトクラスへの部分一般化の問題として、3D合成ゼロショット学習を提案する。
論文 参考訳(メタデータ) (2021-11-29T16:34:53Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - DatasetGAN: Efficient Labeled Data Factory with Minimal Human Effort [117.41383937100751]
現在のディープネットワークは、大規模なデータセットのトレーニングの恩恵を受ける、非常にデータハングリーです。
GAN潜入コードがどのようにデコードされ、イメージのセマンティックセグメンテーションを生成するかを示す。
これらの生成されたデータセットは、実際のデータセットと同じように、コンピュータビジョンアーキテクチャのトレーニングに使用できます。
論文 参考訳(メタデータ) (2021-04-13T20:08:29Z) - Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion [9.536947328412198]
本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
論文 参考訳(メタデータ) (2020-12-03T17:41:55Z) - Multi-branch and Multi-scale Attention Learning for Fine-Grained Visual
Categorization [6.415792312027131]
ImageNet Large Scale Visual Recognition Challenge (ILSVRC)は、近年のコンピュータビジョン(CV)分野における最も権威ある学術コンペティションの1つである。
ILSVRCの年次チャンピオンを、きめ細かい視覚分類(FGVC)タスクに直接適用しても、良いパフォーマンスは得られない。
私たちのアプローチはエンドツーエンドでトレーニングできますが、短い推論時間を提供します。
論文 参考訳(メタデータ) (2020-03-20T08:43:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。