論文の概要: Overview of The MediaEval 2022 Predicting Video Memorability Task
- arxiv url: http://arxiv.org/abs/2212.06516v1
- Date: Tue, 13 Dec 2022 12:02:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:00:55.250402
- Title: Overview of The MediaEval 2022 Predicting Video Memorability Task
- Title(参考訳): MediaEval 2022の動画記録可能性に関する概観
- Authors: Lorin Sweeney and Mihai Gabriel Constantin and Claire-H\'el\`ene
Demarty and Camilo Fosco and Alba G. Seco de Herrera and Sebastian Halder and
Graham Healy and Bogdan Ionescu and Ana Matran-Fernandez and Alan F. Smeaton
and Mushfika Sultana
- Abstract要約: 本稿では,MediaEval2022の一部として,Predicting Video Memorability Taskの第5版について述べる。
昨年と同様、一般化を容易にするために2つのデータセットが提供されている。
TRECVid 2019 Video-to-TextデータセットをVideoMemデータセットに置き換えました。
完全発生脳波(EEG)に基づく予測サブタスクが導入された。
- 参考スコア(独自算出の注目度): 5.032429663272684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the 5th edition of the Predicting Video Memorability
Task as part of MediaEval2022. This year we have reorganised and simplified the
task in order to lubricate a greater depth of inquiry. Similar to last year,
two datasets are provided in order to facilitate generalisation, however, this
year we have replaced the TRECVid2019 Video-to-Text dataset with the VideoMem
dataset in order to remedy underlying data quality issues, and to prioritise
short-term memorability prediction by elevating the Memento10k dataset as the
primary dataset. Additionally, a fully fledged electroencephalography
(EEG)-based prediction sub-task is introduced. In this paper, we outline the
core facets of the task and its constituent sub-tasks; describing the datasets,
evaluation metrics, and requirements for participant submissions.
- Abstract(参考訳): 本稿では,MediaEval2022の一部として,Predicting Video Memorability Taskの第5版について述べる。
今年は、より深い調査を潤滑するために、タスクを再編成し、単純化しました。
昨年と同様に、一般化を容易にするために2つのデータセットが提供されているが、今年は、memento10kデータセットを主要なデータセットとして高揚させることによる短期記憶可能性予測を優先するために、trecvid2019 video-to-textデータセットをvideomemデータセットに置き換えた。
また、完全脳波(eeg)に基づく予測サブタスクも導入されている。
本稿では,タスクのコア・ファセットとその構成サブ・タスクについて概説する。データセット,評価指標,参加者の提出要件について述べる。
関連論文リスト
- Integrating Planning into Single-Turn Long-Form Text Generation [66.08871753377055]
長文コンテンツを生成するための計画案を提案する。
私たちの主な新規性は、複数のプロンプトや計画のラウンドを必要としない単一の補助的なタスクにあります。
実験では,LLMを補助タスクで微調整し,高品質な文書を生成する,異なる領域からの2つのデータセットを実証した。
論文 参考訳(メタデータ) (2024-10-08T17:02:40Z) - CinePile: A Long Video Question Answering Dataset and Benchmark [55.30860239555001]
我々は、CinePileという新しいデータセットとベンチマークを提示する。
包括的データセットは305,000の多重選択質問(MCQ)から構成されており、様々な視覚的・マルチモーダル的な側面をカバーしている。
トレーニングスプリットに関して、オープンソースのVideo-LLMを微調整し、データセットのテストスプリット上で、オープンソースとプロプライエタリなビデオ中心LLMの両方を評価しました。
論文 参考訳(メタデータ) (2024-05-14T17:59:02Z) - Scaling Up Video Summarization Pretraining with Large Language Models [73.74662411006426]
本稿では,大規模ビデオ要約データセットを生成するための,自動化されたスケーラブルなパイプラインを提案する。
我々は既存のアプローチの限界を分析し、それらに効果的に対処する新しいビデオ要約モデルを提案する。
我々の研究は、プロが注釈付けした高品質の要約を持つ1200本の長編ビデオを含む新しいベンチマークデータセットも提示した。
論文 参考訳(メタデータ) (2024-04-04T11:59:06Z) - MMSum: A Dataset for Multimodal Summarization and Thumbnail Generation
of Videos [106.06278332186106]
マルチモーダル・アウトプット(MSMO)を用いたマルチモーダル・サマリゼーションが有望な研究方向として浮上している。
既存のパブリックMSMOデータセットには多くの制限がある。
textbfMMSumデータセットを精巧にキュレートした。
論文 参考訳(メタデータ) (2023-06-07T07:43:11Z) - VideoXum: Cross-modal Visual and Textural Summarization of Videos [54.0985975755278]
我々は新しい共同ビデオとテキスト要約タスクを提案する。
目標は、短縮されたビデオクリップと、長いビデオから対応するテキスト要約の両方を生成することだ。
生成された短縮ビデオクリップとテキストナラティブは、セマンティックに適切に調整されるべきである。
論文 参考訳(メタデータ) (2023-03-21T17:51:23Z) - Distilling Knowledge from Language Models for Video-based Action
Anticipation [31.59130630384036]
ビデオにおける将来の行動を予測することは、多くの自律的で補助的な技術に役立ちます。
本稿では、トレーニング中に利用できるテキストモダリティを利用して、ターゲットアクション予測データセットに存在しない相補的な情報をもたらす方法を提案する。
論文 参考訳(メタデータ) (2022-10-12T08:02:11Z) - Predicting Media Memorability: Comparing Visual, Textual and Auditory
Features [1.8506048493564673]
本稿では,メディアEval 2021における予測メディア記憶可能性タスクへのアプローチについて述べる。
ビデオの記憶可能性を自動的に予測するタスクを設定することで,メディアの記憶可能性の問題に対処することを目的とする。
論文 参考訳(メタデータ) (2021-12-15T08:42:49Z) - Overview of The MediaEval 2021 Predicting Media Memorability Task [4.986121006088218]
MediaEval 2021 Predicting Media Memorabilitytaskは今年の第4版だ。
タスクの主な側面を概説し、データセット、評価指標、参加者の提出要求について説明する。
論文 参考訳(メタデータ) (2021-12-11T13:30:18Z) - STEP: Segmenting and Tracking Every Pixel [107.23184053133636]
新しいベンチマークを示す: Segmenting and Tracking Every Pixel (STEP)
私たちの仕事は、空間領域と時間領域の両方で密な解釈を必要とする現実世界の設定で、このタスクをターゲットとする最初のものです。
性能を測定するために,新しい評価指標と追跡品質(STQ)を提案する。
論文 参考訳(メタデータ) (2021-02-23T18:43:02Z) - Overview of MediaEval 2020 Predicting Media Memorability Task: What
Makes a Video Memorable? [6.179004622699381]
本稿では,MediaEval 2020 textitPredicting Media Memorabilityタスクについて述べる。
短期的および長期的ビデオ記憶可能性(VM)の予測は依然として難しい課題である。
今年のビデオは、アクションリッチなビデオコンテンツを含む、TRECVid 2019 Video-to-Textデータセットのサブセットだ。
論文 参考訳(メタデータ) (2020-12-31T15:12:52Z) - Actionet: An Interactive End-To-End Platform For Task-Based Data
Collection And Augmentation In 3D Environment [1.8925617030516926]
本稿では,3次元環境におけるタスクベースデータセットの収集と拡張のためのインタラクティブなエンドツーエンドプラットフォームであるActioNetを紹介する。
3000以上の階層的なタスク構造とビデオからなる大規模総合的なタスクベースデータセットを収集した。
階層的なタスク構造を使って、ビデオはさらに50の異なるシーンに拡張され、150,000以上のビデオが提供される。
論文 参考訳(メタデータ) (2020-10-03T13:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。