論文の概要: Overview of The MediaEval 2021 Predicting Media Memorability Task
- arxiv url: http://arxiv.org/abs/2112.05982v1
- Date: Sat, 11 Dec 2021 13:30:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 13:24:51.000545
- Title: Overview of The MediaEval 2021 Predicting Media Memorability Task
- Title(参考訳): メディアの記憶可能性の課題を予知するメディアEval 2021の概要
- Authors: Rukiye Savran Kiziltepe, Mihai Gabriel Constantin, Claire-Helene
Demarty, Graham Healy, Camilo Fosco, Alba Garcia Seco de Herrera, Sebastian
Halder, Bogdan Ionescu, Ana Matran-Fernandez, Alan F. Smeaton and Lorin
Sweeney
- Abstract要約: MediaEval 2021 Predicting Media Memorabilitytaskは今年の第4版だ。
タスクの主な側面を概説し、データセット、評価指標、参加者の提出要求について説明する。
- 参考スコア(独自算出の注目度): 4.986121006088218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the MediaEval 2021 Predicting Media Memorability}task,
which is in its 4th edition this year, as the prediction of short-term and
long-term video memorability remains a challenging task. In 2021, two datasets
of videos are used: first, a subset of the TRECVid 2019 Video-to-Text dataset;
second, the Memento10K dataset in order to provide opportunities to explore
cross-dataset generalisation. In addition, an Electroencephalography
(EEG)-based prediction pilot subtask is introduced. In this paper, we outline
the main aspects of the task and describe the datasets, evaluation metrics, and
requirements for participants' submissions.
- Abstract(参考訳): 本稿では,メディアの記憶力を予測するための2021年の課題について述べる。これは今年第4版で,短期的・長期的ビデオの記憶力の予測は依然として難しい課題である。
2021年、trecvid 2019 video-to-textデータセットのサブセットであるmemento10kデータセットを使用して、クロスデータセットの一般化を探求する機会を提供する。
また、脳波(eeg)ベースの予測パイロットサブタスクも導入する。
本稿では,課題の主な側面を概説し,参加者の提出に対するデータセット,評価指標,要件について述べる。
関連論文リスト
- VEDIT: Latent Prediction Architecture For Procedural Video Representation Learning [59.68917139718813]
そこで本研究では,市販の冷凍型ビジュアルエンコーダを用いて,予測および手続き計画において,最先端(SoTA)の性能を達成可能であることを示す。
観察されたステップから凍結したクリップレベルの埋め込みを条件付けて、目に見えないステップの動作を予測することで、予測のための堅牢な表現を学習することができる。
論文 参考訳(メタデータ) (2024-10-04T14:52:09Z) - F-FOMAML: GNN-Enhanced Meta-Learning for Peak Period Demand Forecasting with Proxy Data [65.6499834212641]
本稿では,需要予測をメタラーニング問題として定式化し,F-FOMAMLアルゴリズムを開発した。
タスク固有のメタデータを通してドメインの類似性を考慮することにより、トレーニングタスクの数が増加するにつれて過剰なリスクが減少する一般化を改善した。
従来の最先端モデルと比較して,本手法では需要予測精度が著しく向上し,内部自動販売機データセットでは平均絶対誤差が26.24%,JD.comデータセットでは1.04%削減された。
論文 参考訳(メタデータ) (2024-06-23T21:28:50Z) - TV100: A TV Series Dataset that Pre-Trained CLIP Has Not Seen [59.41896032227508]
2021年以降に公開されたテレビシリーズの画像からなる新しいデータセットを公開している。
このデータセットは、インクリメンタルラーニングの評価を含む、さまざまな研究領域での利用に重要な可能性を秘めている。
論文 参考訳(メタデータ) (2024-04-16T17:47:45Z) - DeVAn: Dense Video Annotation for Video-Language Models [68.70692422636313]
実世界のビデオクリップに記述を生成する視覚言語モデルの有効性を評価するために,人間の注釈付きデータセットを提案する。
データセットには、20秒から60秒間の8.5KのYouTubeビデオクリップが含まれており、幅広いトピックや関心事をカバーしている。
論文 参考訳(メタデータ) (2023-10-08T08:02:43Z) - MMSum: A Dataset for Multimodal Summarization and Thumbnail Generation
of Videos [106.06278332186106]
マルチモーダル・アウトプット(MSMO)を用いたマルチモーダル・サマリゼーションが有望な研究方向として浮上している。
既存のパブリックMSMOデータセットには多くの制限がある。
textbfMMSumデータセットを精巧にキュレートした。
論文 参考訳(メタデータ) (2023-06-07T07:43:11Z) - Overview of The MediaEval 2022 Predicting Video Memorability Task [5.032429663272684]
本稿では,MediaEval2022の一部として,Predicting Video Memorability Taskの第5版について述べる。
昨年と同様、一般化を容易にするために2つのデータセットが提供されている。
TRECVid 2019 Video-to-TextデータセットをVideoMemデータセットに置き換えました。
完全発生脳波(EEG)に基づく予測サブタスクが導入された。
論文 参考訳(メタデータ) (2022-12-13T12:02:21Z) - NVIDIA-UNIBZ Submission for EPIC-KITCHENS-100 Action Anticipation
Challenge 2022 [13.603712913129506]
EPIC-Kitchen-100アクション予測課題の技術的詳細について述べる。
我々のモデリング、高次の時空変換器、エッジ学習を用いたメッセージパスニューラルネットワークはどちらも、2.5秒の推論コンテキストのみを観測し、アクション予測予測を形成するリカレントベースアーキテクチャである。
提案したトレーニングパイプラインでコンパイルされたモデルの予測スコアを平均化することにより、テストセット上で強力なパフォーマンスを実現しました。
論文 参考訳(メタデータ) (2022-06-22T06:34:58Z) - Overview of the EEG Pilot Subtask at MediaEval 2021: Predicting Media
Memorability [0.0]
記憶可能性-EEGパイロットサブタスクの目的は、ビデオの記憶可能性を予測する文脈における神経信号の使用への関心を促進することである。
この実証パイロットは、興味のある研究者に、事前のドメイン知識なしで神経信号をどのように使えるかの感覚を与える。
このデータセットは、ビデオの記憶可能性を予測するための新しい機械学習と処理戦略の探索を支援するために使用できる。
論文 参考訳(メタデータ) (2021-12-15T08:47:58Z) - Predicting Media Memorability: Comparing Visual, Textual and Auditory
Features [1.8506048493564673]
本稿では,メディアEval 2021における予測メディア記憶可能性タスクへのアプローチについて述べる。
ビデオの記憶可能性を自動的に予測するタスクを設定することで,メディアの記憶可能性の問題に対処することを目的とする。
論文 参考訳(メタデータ) (2021-12-15T08:42:49Z) - STEP: Segmenting and Tracking Every Pixel [107.23184053133636]
新しいベンチマークを示す: Segmenting and Tracking Every Pixel (STEP)
私たちの仕事は、空間領域と時間領域の両方で密な解釈を必要とする現実世界の設定で、このタスクをターゲットとする最初のものです。
性能を測定するために,新しい評価指標と追跡品質(STQ)を提案する。
論文 参考訳(メタデータ) (2021-02-23T18:43:02Z) - Overview of MediaEval 2020 Predicting Media Memorability Task: What
Makes a Video Memorable? [6.179004622699381]
本稿では,MediaEval 2020 textitPredicting Media Memorabilityタスクについて述べる。
短期的および長期的ビデオ記憶可能性(VM)の予測は依然として難しい課題である。
今年のビデオは、アクションリッチなビデオコンテンツを含む、TRECVid 2019 Video-to-Textデータセットのサブセットだ。
論文 参考訳(メタデータ) (2020-12-31T15:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。