論文の概要: Describe me if you can! Characterized Instance-level Human Parsing
- arxiv url: http://arxiv.org/abs/2201.09594v1
- Date: Mon, 24 Jan 2022 11:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 16:19:44.720125
- Title: Describe me if you can! Characterized Instance-level Human Parsing
- Title(参考訳): できるなら説明してくれ!
インスタンスレベルのヒューマンパースの特徴
- Authors: Angelique Loesch and Romaric Audigier
- Abstract要約: マルチHPデータセットCIHPに基づくデータセットCCIHPを提案する。
また,高速でスケーラブルなベースラインとしてトランスフォーマーをベースとした新しいボトムアップマルチタスク手法HPTRを提案する。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several computer vision applications such as person search or online fashion
rely on human description. The use of instance-level human parsing (HP) is
therefore relevant since it localizes semantic attributes and body parts within
a person. But how to characterize these attributes? To our knowledge, only some
single-HP datasets describe attributes with some color, size and/or pattern
characteristics. There is a lack of dataset for multi-HP in the wild with such
characteristics. In this article, we propose the dataset CCIHP based on the
multi-HP dataset CIHP, with 20 new labels covering these 3 kinds of
characteristics. In addition, we propose HPTR, a new bottom-up multi-task
method based on transformers as a fast and scalable baseline. It is the fastest
method of multi-HP state of the art while having precision comparable to the
most precise bottom-up method. We hope this will encourage research for fast
and accurate methods of precise human descriptions.
- Abstract(参考訳): 人物検索やオンラインファッションなどのコンピュータビジョンアプリケーションは、人間の記述に依存している。
したがって、インスタンスレベルのヒューマンパーシング(HP)の使用は、人内の意味的属性と身体部分の局在化に関係している。
しかし、これらの属性を特徴付けるには?
我々の知る限り、いくつかのシングルHPデータセットは、いくつかの色、サイズ、および/またはパターンの特徴を持つ属性を記述しています。
このような特徴を持つマルチhpにはデータセットが欠けている。
本稿では,マルチHPデータセットCIHPに基づくデータセットCCIHPを提案する。
さらに,高速でスケーラブルなベースラインとしてトランスフォーマーをベースとした新しいボトムアップマルチタスク手法HPTRを提案する。
これは、最も正確なボトムアップ法に匹敵する精度を持ちながら、美術品のマルチhp状態の最速の方法である。
これにより、人間の正確な記述の迅速かつ正確な方法の研究が促進されることを願っています。
関連論文リスト
- Referring Human Pose and Mask Estimation in the Wild [57.12038065541915]
野生における人間行動とマスク推定(R-HPM)について紹介する。
このタスクは、補助ロボティクスやスポーツ分析のような人間中心のアプリケーションにとって大きな可能性を秘めている。
我々は、R-HPMのためのUniPHDと呼ばれる最初のエンドツーエンドのプロンプト可能なアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-27T16:44:15Z) - VQ-HPS: Human Pose and Shape Estimation in a Vector-Quantized Latent Space [43.368963897752664]
この研究は、ヒューマン・ポースと形状推定の問題に対処する新しいパラダイムを導入している。
身体モデルパラメータを予測する代わりに、提案した離散潜在表現を予測することに重点を置いている。
提案モデルであるVQ-HPSはメッシュの離散潜在表現を予測する。
論文 参考訳(メタデータ) (2023-12-13T17:08:38Z) - You Only Learn One Query: Learning Unified Human Query for Single-Stage Multi-Person Multi-Task Human-Centric Perception [37.667147915777534]
人間中心の知覚は、コンピュータビジョンの長年の問題である。
本稿では,一段階多人数マルチタスク人間中心認識(HCP)のための統合多目的フレームワーク(HQNet)を提案する。
Human Queryは、個人のための複雑なインスタンスレベルの機能をキャプチャし、複雑なマルチパーソンシナリオを分離する。
論文 参考訳(メタデータ) (2023-12-09T10:36:43Z) - UniHPE: Towards Unified Human Pose Estimation via Contrastive Learning [29.037799937729687]
2次元と3次元の人間の姿勢推定(HPE)はコンピュータビジョンにおける2つの重要な知覚的タスクである。
提案するUniHPEは,3つのモードの全ての特徴を整列する,統一されたヒューマンポーズ推定パイプラインである。
提案手法は,コンピュータビジョンの分野を前進させ,様々な応用に寄与する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-24T21:55:34Z) - Learning-Based Dimensionality Reduction for Computing Compact and
Effective Local Feature Descriptors [101.62384271200169]
特徴の形でのイメージパッチの独特な表現は多くのコンピュータビジョンとロボティクスのタスクの重要な構成要素である。
マルチ層パーセプトロン(MLP)を用いて,低次元ながら高品質な記述子を抽出する。
視覚的ローカライゼーション、パッチ検証、画像マッチング、検索など、さまざまなアプリケーションについて検討する。
論文 参考訳(メタデータ) (2022-09-27T17:59:04Z) - Hyperparameter Sensitivity in Deep Outlier Detection: Analysis and a
Scalable Hyper-Ensemble Solution [21.130842136324528]
我々は,Deep OD法のHP感度に関する最初の大規模解析を行った。
我々は,HP 構成の異なるモデルを組み立てる ROBOD と呼ばれる HP-robust でスケーラブルな深層アンサンブルモデルを設計する。
論文 参考訳(メタデータ) (2022-06-15T16:46:00Z) - FeatER: An Efficient Network for Human Reconstruction via Feature
Map-Based TransformER [46.23824464424351]
FeatERは、注意をモデリングする際に特徴マップ表現の本質的な構造を保存する新しいトランスフォーマー設計である。
特徴マップ再構成モジュールを適用し、推定された人間のポーズとメッシュの性能を向上させる。
論文 参考訳(メタデータ) (2022-05-30T22:09:57Z) - Clicking Matters:Towards Interactive Human Parsing [60.35351491254932]
この研究は、対話的な環境下での人間の解析課題に取り組む最初の試みである。
ベンチマークLIPでは85% mIoU,PASCAL-Person-Partでは80% mIoU,Helenでは75% mIoU,クラス毎のクリック数は1.95,3.02,2.84,1.09であった。
論文 参考訳(メタデータ) (2021-11-11T11:47:53Z) - Linking Across Data Granularity: Fitting Multivariate Hawkes Processes to Partially Interval-Censored Data [50.63666649894571]
一部の応用では、ある次元における個々の事象のタイムスタンプは観測不可能であり、インターバル内の事象数のみが知られている。
本研究では,MHPとパラメータ等価性を共有し,タイムスタンプデータとインターバルセンサデータの両方を効果的にモデル化できる新たなポイントプロセスを提案する。
合成および実世界のデータセットを用いてPCMHPの能力を実証する。
論文 参考訳(メタデータ) (2021-11-03T08:25:35Z) - End-to-end One-shot Human Parsing [91.5113227694443]
One-shot Human Parsing (OSHP) タスクでは、テスト例によって定義されたオープンなクラスに人間を解析する必要がある。
EOP-Net (End-to-end One-shot Human Parsing Network) が提案されている。
EOP-Netは、一発セグメンテーションモデルを大きなマージンで上回る。
論文 参考訳(メタデータ) (2021-05-04T01:35:50Z) - Learning Compositional Representation for Few-shot Visual Question
Answering [93.4061107793983]
現在の視覚的質問応答の方法は、トレーニングデータ量で回答を良好に実行するが、例が少ない新規回答では精度が限られている。
回答から属性を十分なデータで抽出することを提案するが、これは後に数ショットの学習を制限するために構成される。
VQA v2.0検証データセットの実験結果から,提案した属性ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2021-02-21T10:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。