論文の概要: 3rd Place Solution for Short-video Face Parsing Challenge
- arxiv url: http://arxiv.org/abs/2106.07409v1
- Date: Mon, 14 Jun 2021 13:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:56:02.449894
- Title: 3rd Place Solution for Short-video Face Parsing Challenge
- Title(参考訳): ショートビデオ顔解析チャレンジのための3位解法
- Authors: Xiao Liu, XiaoFei Si, JiangTao Xie
- Abstract要約: 本稿では,エッジ情報を用いてセグメンテーションエッジを洗練させるエッジ・アウェア・ネットワーク(EANet)を提案する。
実験では,提案したEANetが顔解析結果を起動することを示した。
- 参考スコア(独自算出の注目度): 7.857153391903972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Short videos have many applications on fashion trends, hot spots, street
interviews, public education, and creative advertising. We propose an
Edge-Aware Network(EANet) that uses edge information to refine the segmentation
edge. And experiments show our proposed EANet boots up the facial parsing
results. We also use post-process like grab cut to refine and merge the parsing
results.
- Abstract(参考訳): ショートビデオにはファッショントレンド、ホットスポット、ストリートインタビュー、公共教育、クリエイティブ広告など多くの応用がある。
本稿では,エッジ情報を用いてセグメント化エッジを洗練するエッジアウェアネットワーク(eanet)を提案する。
そして,提案したEANetが顔解析結果を起動することを示す実験を行った。
また、グリップカットのようなポストプロセスを使って解析結果を洗練し、マージします。
関連論文リスト
- Detours for Navigating Instructional Videos [58.1645668396789]
We propose VidDetours, a video-lang approach that learn to retrieve the target temporal segments from a large repository of how-to's。
本稿では,ビデオ検索と質問応答の最良の方法に比べて,モデルが大幅に改善し,リコール率が35%を超えることを示す。
論文 参考訳(メタデータ) (2024-01-03T16:38:56Z) - Fine-Grained Annotation for Face Anti-Spoofing [38.455478845299425]
顔の偽造防止は、プレゼンテーション攻撃から顔認識システムを保護する上で重要な役割を担っている。
顔の偽造防止のための微粒なアノテーション手法を提案する。
提案手法は,データ内およびデータ間評価において,既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-12T08:57:33Z) - Video-based Person Re-identification with Long Short-Term Representation
Learning [101.62570747820541]
ビデオベースの人物再識別(V-ReID)は、オーバーラップしないカメラで撮影した生のビデオから特定の人物を回収することを目的としている。
本稿では,V-ReIDのためのLong Short-Term Representation Learning(LSTRL)という新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T16:22:47Z) - Causal Video Summarizer for Video Exploration [74.27487067877047]
Causal Video Summarizer (CVS) はビデオとクエリ間の対話的な情報をキャプチャするために提案されている。
既存のマルチモーダル映像要約データセットの評価から,提案手法が有効であることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-07-04T22:52:16Z) - Video Summarization Overview [25.465707307283434]
ビデオ要約は、ビデオのコンパクトな要約を作成することにより、ビデオコンテンツを素早く把握することを容易にする。
本調査は, ディープラーニング技術を活用した最近のアプローチと同様に, 早期研究についても取り上げる。
論文 参考訳(メタデータ) (2022-10-21T03:29:31Z) - PolyphonicFormer: Unified Query Learning for Depth-aware Video Panoptic
Segmentation [90.26723865198348]
DVPSタスクで全てのサブタスクを統一する視覚変換器であるPolyphonicFormerを提案する。
提案手法は,問合せ学習による深度推定とパノプティックセグメンテーションの関係について検討する。
ICCV-2021 BMTT Challenge video + depth trackで1位にランクインした。
論文 参考訳(メタデータ) (2021-12-05T14:31:47Z) - Speech2Video: Cross-Modal Distillation for Speech to Video Generation [21.757776580641902]
音声対ビデオ生成技術は、エンターテイメント、カスタマーサービス、人間とコンピュータの相互作用産業に興味深い応用をもたらす可能性がある。
この課題は主に、異なる視覚特性を音声信号から切り離すことである。
そこで本研究では,非競合ビデオ入力から無関係な感情・アイデンティティ情報を抽出する軽量なクロスモーダル蒸留法を提案する。
論文 参考訳(メタデータ) (2021-07-10T10:27:26Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Fine-grained Iterative Attention Network for TemporalLanguage
Localization in Videos [63.94898634140878]
ビデオ中の時間的言語ローカライゼーションは、与えられた文クエリに基づいて、ビデオセグメントの1つを未トリミングビデオにグラウンドすることを目的としている。
本稿では,2つのクエリ・ビデオ・インフォーム抽出のための反復的注意モジュールからなる細粒度反復注意ネットワーク(FIAN)を提案する。
本稿では,Ac-tivityNet Captions,TACoS,Charades-STAの3つのベンチマークで提案手法を評価した。
論文 参考訳(メタデータ) (2020-08-06T04:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。