論文の概要: TRECVID 2020: A comprehensive campaign for evaluating video retrieval
tasks across multiple application domains
- arxiv url: http://arxiv.org/abs/2104.13473v1
- Date: Tue, 27 Apr 2021 20:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 20:32:08.301135
- Title: TRECVID 2020: A comprehensive campaign for evaluating video retrieval
tasks across multiple application domains
- Title(参考訳): TRECVID 2020: 複数のアプリケーション領域にわたるビデオ検索タスクを評価する包括的なキャンペーン
- Authors: George Awad, Asad A. Butt, Keith Curtis, Jonathan Fiscus, Afzal Godil,
Yooyoung Lee, Andrew Delgado, Jesse Zhang, Eliot Godard, Baptiste Chocot,
Lukas Diduch, Jeffrey Liu, Alan F. Smeaton, Yvette Graham, Gareth J. F.
Jones, Wessel Kraaij, Georges Quenot
- Abstract要約: TREC Video Retrieval Evaluation(TRECVID)は、TREC形式のビデオ解析および検索評価です。
本稿では,評価キャンペーンで使用される評価フレームワーク,タスク,データ,尺度について紹介する。
- 参考スコア(独自算出の注目度): 8.841101408927058
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The TREC Video Retrieval Evaluation (TRECVID) is a TREC-style video analysis
and retrieval evaluation with the goal of promoting progress in research and
development of content-based exploitation and retrieval of information from
digital video via open, metrics-based evaluation. Over the last twenty years
this effort has yielded a better understanding of how systems can effectively
accomplish such processing and how one can reliably benchmark their
performance. TRECVID has been funded by NIST (National Institute of Standards
and Technology) and other US government agencies. In addition, many
organizations and individuals worldwide contribute significant time and effort.
TRECVID 2020 represented a continuation of four tasks and the addition of two
new tasks. In total, 29 teams from various research organizations worldwide
completed one or more of the following six tasks: 1. Ad-hoc Video Search (AVS),
2. Instance Search (INS), 3. Disaster Scene Description and Indexing (DSDI), 4.
Video to Text Description (VTT), 5. Activities in Extended Video (ActEV), 6.
Video Summarization (VSUM). This paper is an introduction to the evaluation
framework, tasks, data, and measures used in the evaluation campaign.
- Abstract(参考訳): TREC Video Retrieval Evaluation(TREC Video Retrieval Evaluation、TRECVID)は、TREC形式のビデオ分析と検索評価であり、オープンなメトリクスベースの評価を通じて、デジタルビデオからの情報の利用と検索の研究開発の進展を促進することを目的としている。
この20年間でこの取り組みは、システムがこのような処理を効果的に達成し、パフォーマンスを確実にベンチマークする方法をよりよく理解した。
TRECVIDはNIST(National Institute of Standards and Technology)や他の米国政府機関から資金提供を受けている。
加えて、世界中の多くの組織や個人が多大な時間と労力を費やしている。
TRECVID 2020は4つのタスクの継続と2つの新しいタスクの追加を表した。
全世界のさまざまな研究機関の29チームが、以下の6つのタスクの1つ以上を完了した。
アドホックビデオ検索(avs)2。
インスタンス検索 (INS) 3。
災害現場説明・索引作成(DSDI)4。
Video to Text Description (VTT) 5。
拡張ビデオ (ActEV) 6。
ビデオ要約(VSUM)。
本稿では,評価キャンペーンで使用される評価フレームワーク,タスク,データ,尺度について紹介する。
関連論文リスト
- MultiVENT 2.0: A Massive Multilingual Benchmark for Event-Centric Video Retrieval [57.891157692501345]
$textbfMultiVENT 2.0$は、大規模かつ多言語なイベント中心のビデオ検索ベンチマークである。
218,000以上のニュースビデオと、特定の世界イベントを対象とした3,906のクエリが提供されている。
予備的な結果は、最先端のビジョン言語モデルは、この課題にかなり苦労していることを示している。
論文 参考訳(メタデータ) (2024-10-15T13:56:34Z) - A Comprehensive Survey on Underwater Image Enhancement Based on Deep Learning [51.7818820745221]
水中画像強調(UIE)はコンピュータビジョン研究において重要な課題である。
多数のUIEアルゴリズムが開発されているにもかかわらず、網羅的で体系的なレビューはいまだに欠落している。
論文 参考訳(メタデータ) (2024-05-30T04:46:40Z) - VLM-Eval: A General Evaluation on Video Large Language Models [16.92780012093112]
キャプション,質問と回答,検索,行動認識など,複数のビデオタスクを含む統合評価を導入する。
本稿では, 1 つの線形射影を用いて既存のビデオ LLM より優れるビデオ-LLaVA を提案する。
ビデオLLMを学術データセットを超えて評価し,数百対のビデオインストラクションペアのみを微調整で駆動シナリオの認識と推論能力を示す。
論文 参考訳(メタデータ) (2023-11-20T16:02:10Z) - DeVAn: Dense Video Annotation for Video-Language Models [68.70692422636313]
実世界のビデオクリップに記述を生成する視覚言語モデルの有効性を評価するために,人間の注釈付きデータセットを提案する。
データセットには、20秒から60秒間の8.5KのYouTubeビデオクリップが含まれており、幅広いトピックや関心事をカバーしている。
論文 参考訳(メタデータ) (2023-10-08T08:02:43Z) - An overview on the evaluated video retrieval tasks at TRECVID 2022 [3.2136632136953263]
TRECビデオ検索評価(TREC Video Retrieval Evaluation, TRECVID)は、TREC方式のビデオ解析および検索評価である。
本稿では,タスク,データセット,評価フレームワーク,メトリクス,高レベルな結果の概要を紹介する。
論文 参考訳(メタデータ) (2023-06-22T15:15:13Z) - Deep Learning for Video-Text Retrieval: a Review [13.341694455581363]
Video-Text Retrieval (VTR) は、ある文のセマンティクスに関連する最も関連性の高いビデオを探すことを目的としている。
本稿では,VTRに関する100以上の研究論文をレビューし,要約する。
論文 参考訳(メタデータ) (2023-02-24T10:14:35Z) - ViSeRet: A simple yet effective approach to moment retrieval via
fine-grained video segmentation [6.544437737391409]
本稿では,ICCV VALUE Challenge 2021のビデオ検索における第1位ソリューションを提案する。
本稿では,2つのビデオテキスト検索タスクを共同で行うための,シンプルかつ効果的な手法を提案する。
4つのデータセットで新しい最先端のパフォーマンスを実現するアンサンブルモデルを作成します。
論文 参考訳(メタデータ) (2021-10-11T10:39:13Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - VALUE: A Multi-Task Benchmark for Video-and-Language Understanding
Evaluation [124.02278735049235]
VALUEベンチマークは、幅広いビデオジャンル、ビデオの長さ、データボリューム、タスクの難易度をカバーすることを目的としている。
大規模なVidL事前学習による各種ベースライン法の評価を行った。
我々の最高のモデルと人間のパフォーマンスの間の大きなギャップは、先進的なVidLモデルの将来の研究を要求する。
論文 参考訳(メタデータ) (2021-06-08T18:34:21Z) - TRECVID 2019: An Evaluation Campaign to Benchmark Video Activity
Detection, Video Captioning and Matching, and Video Search & Retrieval [7.132595104796215]
TRECVIDはNIST(National Institute of Standards and Technology)や他の米国政府機関から資金提供を受けている。
本稿では,ワークショップで使用される評価フレームワーク,タスク,データ,尺度について紹介する。
論文 参考訳(メタデータ) (2020-09-21T16:08:47Z) - Comprehensive Instructional Video Analysis: The COIN Dataset and
Performance Evaluation [100.68317848808327]
包括的インストラクショナルビデオ解析のための大規模データセット「COIN」を提案する。
COINデータセットには、日々の生活に関連する12の領域で180のタスクの11,827の動画が含まれている。
新しい開発ツールボックスでは、すべてのビデオに一連のステップラベルと対応する時間境界がアノテートされる。
論文 参考訳(メタデータ) (2020-03-20T16:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。