論文の概要: End-to-end One-shot Human Parsing
- arxiv url: http://arxiv.org/abs/2105.01241v3
- Date: Sun, 24 Sep 2023 05:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 05:21:22.818077
- Title: End-to-end One-shot Human Parsing
- Title(参考訳): エンドツーエンドのワンショットパーシング
- Authors: Haoyu He, Bohan Zhuang, Jing Zhang, Jianfei Cai, Dacheng Tao
- Abstract要約: One-shot Human Parsing (OSHP) タスクでは、テスト例によって定義されたオープンなクラスに人間を解析する必要がある。
EOP-Net (End-to-end One-shot Human Parsing Network) が提案されている。
EOP-Netは、一発セグメンテーションモデルを大きなマージンで上回る。
- 参考スコア(独自算出の注目度): 91.5113227694443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous human parsing methods are limited to parsing humans into pre-defined
classes, which is inflexible for practical fashion applications that often have
new fashion item classes. In this paper, we define a novel one-shot human
parsing (OSHP) task that requires parsing humans into an open set of classes
defined by any test example. During training, only base classes are exposed,
which only overlap with part of the test-time classes. To address three main
challenges in OSHP, i.e., small sizes, testing bias, and similar parts, we
devise an End-to-end One-shot human Parsing Network (EOP-Net). Firstly, an
end-to-end human parsing framework is proposed to parse the query image into
both coarse-grained and fine-grained human classes, which embeds rich semantic
information that is shared across different granularities to identify the
small-sized human classes. Then, we gradually smooth the training-time static
prototypes to get robust class representations. Moreover, we employ a dynamic
objective to encourage the network's enhancing features' representational
capability in the early training phase while improving features'
transferability in the late training phase. Therefore, our method can quickly
adapt to the novel classes and mitigate the testing bias issue. In addition, we
add a contrastive loss at the prototype level to enforce inter-class distances,
thereby discriminating the similar parts. For comprehensive evaluations on the
new task, we tailor three existing popular human parsing benchmarks to the OSHP
task. Experiments demonstrate that EOP-Net outperforms representative one-shot
segmentation models by large margins and serves as a strong baseline for
further research. The source code is available at
https://github.com/Charleshhy/One-shot-Human-Parsing.
- Abstract(参考訳): 従来の人間の構文解析法は、人間が定義済みのクラスにパースすることに限定されており、新しいファッションアイテムクラスを持つ実用的なファッションアプリケーションには柔軟性がない。
本稿では,人間を任意のテスト例で定義されたクラスのオープンセットにパースする必要がある,新しいone-shot human parse (oshp)タスクを定義する。
トレーニング中は、ベースクラスのみが公開され、テスト時間クラスの一部にのみ重複する。
oshpの3つの主な課題、すなわち小さなサイズ、テストバイアス、および類似部分に対処するために、エンドツーエンドのワンショット人間解析ネットワーク(eop-net)を考案する。
まず、エンド・ツー・エンドのヒューマン・パース・フレームワークが、クエリ・イメージを粗粒度と細粒度の両方のヒューマン・クラスに解析するために提案されている。
そして、トレーニング時の静的プロトタイプを徐々にスムーズにして、堅牢なクラス表現を得る。
さらに,初期訓練段階ではネットワークの表現能力の向上を奨励し,後期訓練段階では特徴の伝達性を向上させるために動的目標を用いる。
そこで本手法は,新しいクラスに迅速に適応し,テストバイアスを軽減できる。
さらに,クラス間距離を強制するために,プロトタイプレベルでの対比的損失を追加し,類似部分の識別を行う。
新しいタスクに関する総合的な評価のために、既存の3つのヒトパースベンチマークをOSHPタスクに調整する。
実験により、eop-netは代表的なワンショットセグメンテーションモデルを大きなマージンで上回り、さらなる研究の基盤となることが示されている。
ソースコードはhttps://github.com/Charleshhy/One-shot-Human-Parsingで入手できる。
関連論文リスト
- Harmonizing Base and Novel Classes: A Class-Contrastive Approach for
Generalized Few-Shot Segmentation [78.74340676536441]
本稿では,プロトタイプの更新を規制し,プロトタイプ間の距離を広くするために,クラス間のコントラスト損失とクラス関係損失を提案する。
提案手法は,PASCAL VOC および MS COCO データセット上での一般化された小ショットセグメンテーションタスクに対して,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T00:30:25Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Differentiable Multi-Granularity Human Representation Learning for
Instance-Aware Human Semantic Parsing [131.97475877877608]
カテゴリーレベルの人間のセマンティックセグメンテーションとマルチパーソンポーズ推定を共同およびエンドツーエンドで学習するために,新たなボトムアップ方式を提案する。
さまざまな人間の粒度にわたって構造情報を利用する、コンパクトで効率的で強力なフレームワークです。
3つのインスタンス認識型ヒューマンデータセットの実験は、我々のモデルがより効率的な推論で他のボトムアップの代替案よりも優れていることを示している。
論文 参考訳(メタデータ) (2021-03-08T06:55:00Z) - Nondiscriminatory Treatment: a straightforward framework for multi-human
parsing [14.254424142949741]
マルチヒューマンパーシングは、すべての人間のインスタンスのすべてのボディ部分をセグメントすることを目的としている。
我々は,新しい直感的視点から,エンドツーエンドでボックスフリーなパイプラインを提案する。
実験の結果,ネットワークは最先端の手法に対して優れた性能を示す。
論文 参考訳(メタデータ) (2021-01-26T16:31:21Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - Progressive One-shot Human Parsing [75.18661230253558]
単発ヒューマンパーシング(OSHP)という新しい問題を提案する。
oshpは、人間を1つの参照例で定義されたオープンリファレンスクラスにパースする必要がある。
本稿では,2つの重要な課題に対処するために,新しいプログレッシブワンショットパーシングネットワーク(POPNet)を考案する。
論文 参考訳(メタデータ) (2020-12-22T03:06:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。