論文の概要: TRECVID 2020: A comprehensive campaign for evaluating video retrieval
tasks across multiple application domains
- arxiv url: http://arxiv.org/abs/2104.13473v1
- Date: Tue, 27 Apr 2021 20:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 20:32:08.301135
- Title: TRECVID 2020: A comprehensive campaign for evaluating video retrieval
tasks across multiple application domains
- Title(参考訳): TRECVID 2020: 複数のアプリケーション領域にわたるビデオ検索タスクを評価する包括的なキャンペーン
- Authors: George Awad, Asad A. Butt, Keith Curtis, Jonathan Fiscus, Afzal Godil,
Yooyoung Lee, Andrew Delgado, Jesse Zhang, Eliot Godard, Baptiste Chocot,
Lukas Diduch, Jeffrey Liu, Alan F. Smeaton, Yvette Graham, Gareth J. F.
Jones, Wessel Kraaij, Georges Quenot
- Abstract要約: TREC Video Retrieval Evaluation(TRECVID)は、TREC形式のビデオ解析および検索評価です。
本稿では,評価キャンペーンで使用される評価フレームワーク,タスク,データ,尺度について紹介する。
- 参考スコア(独自算出の注目度): 8.841101408927058
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The TREC Video Retrieval Evaluation (TRECVID) is a TREC-style video analysis
and retrieval evaluation with the goal of promoting progress in research and
development of content-based exploitation and retrieval of information from
digital video via open, metrics-based evaluation. Over the last twenty years
this effort has yielded a better understanding of how systems can effectively
accomplish such processing and how one can reliably benchmark their
performance. TRECVID has been funded by NIST (National Institute of Standards
and Technology) and other US government agencies. In addition, many
organizations and individuals worldwide contribute significant time and effort.
TRECVID 2020 represented a continuation of four tasks and the addition of two
new tasks. In total, 29 teams from various research organizations worldwide
completed one or more of the following six tasks: 1. Ad-hoc Video Search (AVS),
2. Instance Search (INS), 3. Disaster Scene Description and Indexing (DSDI), 4.
Video to Text Description (VTT), 5. Activities in Extended Video (ActEV), 6.
Video Summarization (VSUM). This paper is an introduction to the evaluation
framework, tasks, data, and measures used in the evaluation campaign.
- Abstract(参考訳): TREC Video Retrieval Evaluation(TREC Video Retrieval Evaluation、TRECVID)は、TREC形式のビデオ分析と検索評価であり、オープンなメトリクスベースの評価を通じて、デジタルビデオからの情報の利用と検索の研究開発の進展を促進することを目的としている。
この20年間でこの取り組みは、システムがこのような処理を効果的に達成し、パフォーマンスを確実にベンチマークする方法をよりよく理解した。
TRECVIDはNIST(National Institute of Standards and Technology)や他の米国政府機関から資金提供を受けている。
加えて、世界中の多くの組織や個人が多大な時間と労力を費やしている。
TRECVID 2020は4つのタスクの継続と2つの新しいタスクの追加を表した。
全世界のさまざまな研究機関の29チームが、以下の6つのタスクの1つ以上を完了した。
アドホックビデオ検索(avs)2。
インスタンス検索 (INS) 3。
災害現場説明・索引作成(DSDI)4。
Video to Text Description (VTT) 5。
拡張ビデオ (ActEV) 6。
ビデオ要約(VSUM)。
本稿では,評価キャンペーンで使用される評価フレームワーク,タスク,データ,尺度について紹介する。
関連論文リスト
- Video-CSR: Complex Video Digest Creation for Visual-Language Models [71.66614561702131]
実世界のビデオクリップのキャプションや要約を生成する視覚言語モデルの性能を評価するための新しいタスクと人間の注釈付きデータセットを提案する。
データセットには、20秒から60秒間の4.8KのYouTubeビデオクリップが含まれており、幅広いトピックや興味をカバーしている。
論文 参考訳(メタデータ) (2023-10-08T08:02:43Z) - InternVid: A Large-scale Video-Text Dataset for Multimodal Understanding
and Generation [90.71796406228265]
InternVidは大規模なビデオ中心のマルチモーダルデータセットで、強力で転送可能なビデオテキスト表現の学習を可能にする。
InternVidデータセットは700万本以上のビデオが760万時間近く持続し、合計4.1Bワードの詳細な記述を伴う234万本のビデオクリップが生成される。
論文 参考訳(メタデータ) (2023-07-13T17:58:32Z) - An overview on the evaluated video retrieval tasks at TRECVID 2022 [3.2136632136953263]
TRECビデオ検索評価(TREC Video Retrieval Evaluation, TRECVID)は、TREC方式のビデオ解析および検索評価である。
本稿では,タスク,データセット,評価フレームワーク,メトリクス,高レベルな結果の概要を紹介する。
論文 参考訳(メタデータ) (2023-06-22T15:15:13Z) - Vision-Language Models for Vision Tasks: A Survey [62.543250338410836]
視覚言語モデル(VLM)は、Webスケールの画像テキストペアからリッチな視覚言語相関を学習する。
本稿では,視覚認知タスクにおける視覚言語モデルの体系的レビューを行う。
論文 参考訳(メタデータ) (2023-04-03T02:17:05Z) - Deep Learning for Video-Text Retrieval: a Review [13.341694455581363]
Video-Text Retrieval (VTR) は、ある文のセマンティクスに関連する最も関連性の高いビデオを探すことを目的としている。
本稿では,VTRに関する100以上の研究論文をレビューし,要約する。
論文 参考訳(メタデータ) (2023-02-24T10:14:35Z) - ViSeRet: A simple yet effective approach to moment retrieval via
fine-grained video segmentation [6.544437737391409]
本稿では,ICCV VALUE Challenge 2021のビデオ検索における第1位ソリューションを提案する。
本稿では,2つのビデオテキスト検索タスクを共同で行うための,シンプルかつ効果的な手法を提案する。
4つのデータセットで新しい最先端のパフォーマンスを実現するアンサンブルモデルを作成します。
論文 参考訳(メタデータ) (2021-10-11T10:39:13Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - VALUE: A Multi-Task Benchmark for Video-and-Language Understanding
Evaluation [124.02278735049235]
VALUEベンチマークは、幅広いビデオジャンル、ビデオの長さ、データボリューム、タスクの難易度をカバーすることを目的としている。
大規模なVidL事前学習による各種ベースライン法の評価を行った。
我々の最高のモデルと人間のパフォーマンスの間の大きなギャップは、先進的なVidLモデルの将来の研究を要求する。
論文 参考訳(メタデータ) (2021-06-08T18:34:21Z) - TRECVID 2019: An Evaluation Campaign to Benchmark Video Activity
Detection, Video Captioning and Matching, and Video Search & Retrieval [7.132595104796215]
TRECVIDはNIST(National Institute of Standards and Technology)や他の米国政府機関から資金提供を受けている。
本稿では,ワークショップで使用される評価フレームワーク,タスク,データ,尺度について紹介する。
論文 参考訳(メタデータ) (2020-09-21T16:08:47Z) - Comprehensive Instructional Video Analysis: The COIN Dataset and
Performance Evaluation [100.68317848808327]
包括的インストラクショナルビデオ解析のための大規模データセット「COIN」を提案する。
COINデータセットには、日々の生活に関連する12の領域で180のタスクの11,827の動画が含まれている。
新しい開発ツールボックスでは、すべてのビデオに一連のステップラベルと対応する時間境界がアノテートされる。
論文 参考訳(メタデータ) (2020-03-20T16:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。