論文の概要: TRECVID 2019: An Evaluation Campaign to Benchmark Video Activity
Detection, Video Captioning and Matching, and Video Search & Retrieval
- arxiv url: http://arxiv.org/abs/2009.09984v1
- Date: Mon, 21 Sep 2020 16:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 04:05:47.183548
- Title: TRECVID 2019: An Evaluation Campaign to Benchmark Video Activity
Detection, Video Captioning and Matching, and Video Search & Retrieval
- Title(参考訳): TRECVID 2019: ビデオアクティビティ検出のベンチマーク、ビデオキャプションとマッチング、ビデオ検索と検索のための評価キャンペーン
- Authors: George Awad, Asad A. Butt, Keith Curtis, Yooyoung Lee, Jonathan
Fiscus, Afzal Godil, Andrew Delgado, Jesse Zhang, Eliot Godard, Lukas Diduch,
Alan F. Smeaton, Yvette Graham, Wessel Kraaij, Georges Quenot
- Abstract要約: TRECVIDはNIST(National Institute of Standards and Technology)や他の米国政府機関から資金提供を受けている。
本稿では,ワークショップで使用される評価フレームワーク,タスク,データ,尺度について紹介する。
- 参考スコア(独自算出の注目度): 7.132595104796215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The TREC Video Retrieval Evaluation (TRECVID) 2019 was a TREC-style video
analysis and retrieval evaluation, the goal of which remains to promote
progress in research and development of content-based exploitation and
retrieval of information from digital video via open, metrics-based evaluation.
Over the last nineteen years this effort has yielded a better understanding of
how systems can effectively accomplish such processing and how one can reliably
benchmark their performance. TRECVID has been funded by NIST (National
Institute of Standards and Technology) and other US government agencies. In
addition, many organizations and individuals worldwide contribute significant
time and effort. TRECVID 2019 represented a continuation of four tasks from
TRECVID 2018. In total, 27 teams from various research organizations worldwide
completed one or more of the following four tasks: 1. Ad-hoc Video Search (AVS)
2. Instance Search (INS) 3. Activities in Extended Video (ActEV) 4. Video to
Text Description (VTT) This paper is an introduction to the evaluation
framework, tasks, data, and measures used in the workshop.
- Abstract(参考訳): TREC Video Retrieval Evaluation(TREC Video Retrieval Evaluation, TRECVID) 2019は、TREC形式のビデオ分析と検索評価であり、コンテンツベースのエクスプロイトとデジタルビデオからの情報のオープンなメトリクスベースの評価による検索の進展を促進することを目的としている。
過去19年間で、この取り組みは、システムがそのような処理を効果的に達成し、パフォーマンスを確実にベンチマークする方法をよりよく理解した。
TRECVIDはNIST(National Institute of Standards and Technology)や他の米国政府機関から資金提供を受けている。
加えて、世界中の多くの組織や個人が多大な時間と労力を費やしている。
TRECVID 2019は、TRECVID 2018の4つのタスクの継続を表す。
世界各国の研究機関の27チームが、以下の4つの課題を1つ以上完了した。
アドホックビデオ検索(AVS)
2. インスタンス検索(INS)
3.拡張ビデオ(ActEV)の活動
4.ビデオからテキストへの記述(vtt) この記事では、ワークショップで使用される評価フレームワーク、タスク、データ、測定方法を紹介します。
関連論文リスト
- DeVAn: Dense Video Annotation for Video-Language Models [68.70692422636313]
実世界のビデオクリップに記述を生成する視覚言語モデルの有効性を評価するために,人間の注釈付きデータセットを提案する。
データセットには、20秒から60秒間の8.5KのYouTubeビデオクリップが含まれており、幅広いトピックや関心事をカバーしている。
論文 参考訳(メタデータ) (2023-10-08T08:02:43Z) - InternVid: A Large-scale Video-Text Dataset for Multimodal Understanding
and Generation [90.71796406228265]
InternVidは大規模なビデオ中心のマルチモーダルデータセットで、強力で転送可能なビデオテキスト表現の学習を可能にする。
InternVidデータセットは700万本以上のビデオが760万時間近く持続し、合計4.1Bワードの詳細な記述を伴う234万本のビデオクリップが生成される。
論文 参考訳(メタデータ) (2023-07-13T17:58:32Z) - An overview on the evaluated video retrieval tasks at TRECVID 2022 [3.2136632136953263]
TRECビデオ検索評価(TREC Video Retrieval Evaluation, TRECVID)は、TREC方式のビデオ解析および検索評価である。
本稿では,タスク,データセット,評価フレームワーク,メトリクス,高レベルな結果の概要を紹介する。
論文 参考訳(メタデータ) (2023-06-22T15:15:13Z) - Hierarchical Video-Moment Retrieval and Step-Captioning [68.4859260853096]
HiRESTは、インストラクショナルビデオデータセットから3.4Kのテキストビデオペアで構成されている。
我々の階層的ベンチマークは、ビデオ検索、モーメント検索、2つの新しいモーメントセグメンテーション、ステップキャプションタスクからなる。
論文 参考訳(メタデータ) (2023-03-29T02:33:54Z) - Deep Learning for Video-Text Retrieval: a Review [13.341694455581363]
Video-Text Retrieval (VTR) は、ある文のセマンティクスに関連する最も関連性の高いビデオを探すことを目的としている。
本稿では,VTRに関する100以上の研究論文をレビューし,要約する。
論文 参考訳(メタデータ) (2023-02-24T10:14:35Z) - ViSeRet: A simple yet effective approach to moment retrieval via
fine-grained video segmentation [6.544437737391409]
本稿では,ICCV VALUE Challenge 2021のビデオ検索における第1位ソリューションを提案する。
本稿では,2つのビデオテキスト検索タスクを共同で行うための,シンプルかつ効果的な手法を提案する。
4つのデータセットで新しい最先端のパフォーマンスを実現するアンサンブルモデルを作成します。
論文 参考訳(メタデータ) (2021-10-11T10:39:13Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - VALUE: A Multi-Task Benchmark for Video-and-Language Understanding
Evaluation [124.02278735049235]
VALUEベンチマークは、幅広いビデオジャンル、ビデオの長さ、データボリューム、タスクの難易度をカバーすることを目的としている。
大規模なVidL事前学習による各種ベースライン法の評価を行った。
我々の最高のモデルと人間のパフォーマンスの間の大きなギャップは、先進的なVidLモデルの将来の研究を要求する。
論文 参考訳(メタデータ) (2021-06-08T18:34:21Z) - TRECVID 2020: A comprehensive campaign for evaluating video retrieval
tasks across multiple application domains [8.841101408927058]
TREC Video Retrieval Evaluation(TRECVID)は、TREC形式のビデオ解析および検索評価です。
本稿では,評価キャンペーンで使用される評価フレームワーク,タスク,データ,尺度について紹介する。
論文 参考訳(メタデータ) (2021-04-27T20:59:27Z) - Comprehensive Instructional Video Analysis: The COIN Dataset and
Performance Evaluation [100.68317848808327]
包括的インストラクショナルビデオ解析のための大規模データセット「COIN」を提案する。
COINデータセットには、日々の生活に関連する12の領域で180のタスクの11,827の動画が含まれている。
新しい開発ツールボックスでは、すべてのビデオに一連のステップラベルと対応する時間境界がアノテートされる。
論文 参考訳(メタデータ) (2020-03-20T16:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。