論文の概要: Quality-Aware Network for Face Parsing
- arxiv url: http://arxiv.org/abs/2106.07368v1
- Date: Mon, 14 Jun 2021 12:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 23:04:08.547661
- Title: Quality-Aware Network for Face Parsing
- Title(参考訳): 顔解析のための品質認識ネットワーク
- Authors: Lu Yang, Qing Song, Xueshi Xin, Zhiwei Liu
- Abstract要約: 本報告では, CVPR 2021におけるPICワークショップおよびチャレンジにおける, BUPT-CASIA for Short-video Face Parsing Trackのソリューションについて紹介する。
この研究は、その類似点と相違点を調べるために、最先端の人間構文解析手法を適用している。
我々の応募は86.84%のスコアを獲得し、この挑戦で2位を獲得した。
- 参考スコア(独自算出の注目度): 11.782880699212345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This is a very short technical report, which introduces the solution of the
Team BUPT-CASIA for Short-video Face Parsing Track of The 3rd Person in Context
(PIC) Workshop and Challenge at CVPR 2021.
Face parsing has recently attracted increasing interest due to its numerous
application potentials. Generally speaking, it has a lot in common with human
parsing, such as task setting, data characteristics, number of categories and
so on. Therefore, this work applies state-of-the-art human parsing method to
face parsing task to explore the similarities and differences between them. Our
submission achieves 86.84% score and wins the 2nd place in the challenge.
- Abstract(参考訳): これは非常に短い技術的レポートで、CVPR 2021の3番目の人物(PIC)ワークショップとチャレンジのショートビデオ顔解析トラックのためのチームBUPT-CASIAのソリューションを紹介します。
顔解析は、アプリケーションの可能性の多さから、最近関心が高まっている。
一般的に言えば、タスク設定、データ特性、カテゴリ数など、ヒューマンパースと多くの共通点がある。
そこで本研究では,最先端のヒューマンパース手法を顔解析タスクに適用し,それらの類似点と相違点を探索する。
我々の応募は86.84%のスコアを獲得し、この挑戦で2位を獲得した。
関連論文リスト
- Task-adaptive Q-Face [75.15668556061772]
本稿では,タスク適応型マルチタスク顔分析手法Q-Faceを提案する。
Q-Faceは統合されたモデルで複数の顔分析タスクを同時に実行する。
本手法は,顔表情認識,行動単位検出,顔属性分析,年齢推定,顔ポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-05-15T03:13:11Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - Deep Learning Technique for Human Parsing: A Survey and Outlook [5.236995853909988]
本調査では,1人のパース,複数人のパース,ビデオ人間のパースという3つのサブタスクを総合的にレビューする。
我々はトランスフォーマーに基づくヒューマンパーシングフレームワークを提案し、フォローアップ研究のための高性能なベースラインを提供する。
この分野では未検討のオープンな課題の集合を指摘し、今後の研究に向けた新たな方向性を提案する。
論文 参考訳(メタデータ) (2023-01-01T12:39:57Z) - Technical Report for CVPR 2022 LOVEU AQTC Challenge [3.614550981030065]
本稿では,CVPR 2022のLong-form VidEo Understanding (LOVEU)課題に新たに導入されたタスクであるAQTCの2つ目の勝利モデルを示す。
この課題は、ビデオにおける多段階の回答、マルチモーダル、多様で変化するボタン表現の難しさに直面する。
より効率的な特徴マッピングのための新しいコンテキスト基底モジュールアテンション機構を提案する。
論文 参考訳(メタデータ) (2022-06-29T12:07:43Z) - Clicking Matters:Towards Interactive Human Parsing [60.35351491254932]
この研究は、対話的な環境下での人間の解析課題に取り組む最初の試みである。
ベンチマークLIPでは85% mIoU,PASCAL-Person-Partでは80% mIoU,Helenでは75% mIoU,クラス毎のクリック数は1.95,3.02,2.84,1.09であった。
論文 参考訳(メタデータ) (2021-11-11T11:47:53Z) - Technical Report: Disentangled Action Parsing Networks for Accurate
Part-level Action Parsing [65.87931036949458]
Part-level Action Parsingは、ビデオにおけるアクション認識を促進するための部分状態解析を目的としている。
DAP(disentangled action parsing)というシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-11-05T02:29:32Z) - Shuffle Transformer with Feature Alignment for Video Face Parsing [26.10129570777167]
The 3rd Person in Context (PIC) Workshop and Challengeでは,86.9519%のスコアが得られた。
論文 参考訳(メタデータ) (2021-06-16T09:25:33Z) - Human-centric Relation Segmentation: Dataset and Solution [70.35410845906245]
本稿では,Human-centric relation segmentation (HRS) というタスクをHOI-detのきめ細かいケースとして紹介する。
HRSは、人間と周囲の実体の関係を予測し、関連性のある人間の部分を特定することを目的としている。
以上の場合,HRSタスクは,本書のリレーション・トリップレット・ガール(左手)・ホールド・ブック・マスクと正確なセグメンテーション・マスクの形式で生成され,ロボットが容易につかむことができる。
論文 参考訳(メタデータ) (2021-05-24T09:20:37Z) - End-to-end One-shot Human Parsing [91.5113227694443]
One-shot Human Parsing (OSHP) タスクでは、テスト例によって定義されたオープンなクラスに人間を解析する必要がある。
EOP-Net (End-to-end One-shot Human Parsing Network) が提案されている。
EOP-Netは、一発セグメンテーションモデルを大きなマージンで上回る。
論文 参考訳(メタデータ) (2021-05-04T01:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。