論文の概要: Team PKU-WICT-MIPL PIC Makeup Temporal Video Grounding Challenge 2022
Technical Report
- arxiv url: http://arxiv.org/abs/2207.02687v1
- Date: Wed, 6 Jul 2022 13:50:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 18:02:21.955024
- Title: Team PKU-WICT-MIPL PIC Makeup Temporal Video Grounding Challenge 2022
Technical Report
- Title(参考訳): Team PKU-WICT-MIPL PIC Makeup Temporal Video Grounding Challenge 2022テクニカルレポート
- Authors: Minghang Zheng, Dejie Yang, Zhongjie Ye, Ting Lei, Yuxin Peng and Yang
Liu
- Abstract要約: 本研究では,その微粒な句と文全体に関連する時間的局所化関係を利用するフレーズ関係マイニングフレームワークを提案する。
さらに,異なるステップ文クエリの局所化結果を重なり合わないように制約することを提案する。
最終候補は第2位で、第1位と0.55%の差しかなかった。
- 参考スコア(独自算出の注目度): 42.49264486550348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this technical report, we briefly introduce the solutions of our team
`PKU-WICT-MIPL' for the PIC Makeup Temporal Video Grounding (MTVG) Challenge in
ACM-MM 2022. Given an untrimmed makeup video and a step query, the MTVG aims to
localize a temporal moment of the target makeup step in the video. To tackle
this task, we propose a phrase relationship mining framework to exploit the
temporal localization relationship relevant to the fine-grained phrase and the
whole sentence. Besides, we propose to constrain the localization results of
different step sentence queries to not overlap with each other through a
dynamic programming algorithm. The experimental results demonstrate the
effectiveness of our method. Our final submission ranked 2nd on the
leaderboard, with only a 0.55\% gap from the first.
- Abstract(参考訳): 本稿では,ACM-MM 2022 における PIC Makeup Temporal Video Grounding (MTVG) Challenge に対する,我々のチーム "PKU-WICT-MIPL" のソリューションについて紹介する。
MTVGは、未トリミングなメイクアップビデオとステップクエリが与えられたとき、ビデオ中のターゲットメイクステップの時間的瞬間をローカライズする。
この課題に対処するために、細粒度句と文全体に関連する時間的局所化関係を利用するフレーズ関係マイニングフレームワークを提案する。
さらに、動的プログラミングアルゴリズムを用いて、異なるステップ文クエリのローカライズ結果を重なり合わないよう制約することを提案する。
実験の結果,本手法の有効性が示された。
最終提案はリーダーボードで2位にランクインし、最初のものから0.55\%の差しかなかった。
関連論文リスト
- 1st Place Solution for MeViS Track in CVPR 2024 PVUW Workshop: Motion Expression guided Video Segmentation [81.50620771207329]
ビデオオブジェクトセグメンテーション(RVOS)における静的支配データとフレームサンプリングの有効性について検討する。
本手法は,競技段階でのJ&Fスコア0.5447を達成し,PVUWチャレンジのMeViSトラックで1位となった。
論文 参考訳(メタデータ) (2024-06-11T08:05:26Z) - The Runner-up Solution for YouTube-VIS Long Video Challenge 2022 [72.13080661144761]
この課題に対して,提案したオンラインビデオインスタンス分割方式IDOLを採用した。
擬似ラベルを使用して、コントラスト学習をさらに支援し、時間的に一貫したインスタンスの埋め込みを得る。
提案手法は、YouTube-VIS 2022長ビデオデータセット上で40.2 APを取得し、この課題において第2位にランクされた。
論文 参考訳(メタデータ) (2022-11-18T01:40:59Z) - Exploiting Feature Diversity for Make-up Temporal Video Grounding [15.358540603177547]
本報告では,ACM MM 2022における第4回PICチャレンジで導入された第3回MTVGの勝利解について述べる。
MTVGは,テキスト記述に基づくビデオ中のステップの時間的境界のローカライズを目的としている。
論文 参考訳(メタデータ) (2022-08-12T09:03:25Z) - ReLER@ZJU-Alibaba Submission to the Ego4D Natural Language Queries
Challenge 2022 [61.81899056005645]
ビデオクリップとテキストクエリが与えられた場合、この課題のゴールは、クエリに対する回答が得られるビデオクリップの時間的モーメントを見つけることである。
本稿では,言語クエリとビデオクリップの相関関係を明らかにするために,マルチスケールのクロスモーダル変換器とビデオフレームレベルのコントラスト損失を提案する。
実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-07-01T12:48:35Z) - Technical Report for CVPR 2022 LOVEU AQTC Challenge [3.614550981030065]
本稿では,CVPR 2022のLong-form VidEo Understanding (LOVEU)課題に新たに導入されたタスクであるAQTCの2つ目の勝利モデルを示す。
この課題は、ビデオにおける多段階の回答、マルチモーダル、多様で変化するボタン表現の難しさに直面する。
より効率的な特徴マッピングのための新しいコンテキスト基底モジュールアテンション機構を提案する。
論文 参考訳(メタデータ) (2022-06-29T12:07:43Z) - Exploiting Semantic Role Contextualized Video Features for
Multi-Instance Text-Video Retrieval EPIC-KITCHENS-100 Multi-Instance
Retrieval Challenge 2022 [72.12974259966592]
EPIC-KITCHENS-100 Multi-Instance Retrieval Challenge 2022について述べる。
まず、文を動詞や名詞に対応する意味的役割にパースし、自己意図を利用して意味的役割の文脈化されたビデオ特徴を利用する。
論文 参考訳(メタデータ) (2022-06-29T03:24:43Z) - Look Closer to Ground Better: Weakly-Supervised Temporal Grounding of
Sentence in Video [53.69956349097428]
未トリミングビデオと問合せ文が与えられた場合、我々のゴールは、問合せ文に意味的に対応するビデオ内の時間セグメントをローカライズすることである。
本稿では,この問題を粗大な方法で解くための2段階モデルを提案する。
論文 参考訳(メタデータ) (2020-01-25T13:07:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。