論文の概要: TV100: A TV Series Dataset that Pre-Trained CLIP Has Not Seen
- arxiv url: http://arxiv.org/abs/2404.12407v1
- Date: Tue, 16 Apr 2024 17:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 17:13:50.838095
- Title: TV100: A TV Series Dataset that Pre-Trained CLIP Has Not Seen
- Title(参考訳): TV100:事前訓練されたCLIPが持っていないTVシリーズのデータセット
- Authors: Da-Wei Zhou, Zhi-Hong Qi, Han-Jia Ye, De-Chuan Zhan,
- Abstract要約: 2021年以降に公開されたテレビシリーズの画像からなる新しいデータセットを公開している。
このデータセットは、インクリメンタルラーニングの評価を含む、さまざまな研究領域での利用に重要な可能性を秘めている。
- 参考スコア(独自算出の注目度): 59.41896032227508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The era of pre-trained models has ushered in a wealth of new insights for the machine learning community. Among the myriad of questions that arise, one of paramount importance is: 'Do pre-trained models possess comprehensive knowledge?' This paper seeks to address this crucial inquiry. In line with our objective, we have made publicly available a novel dataset comprised of images from TV series released post-2021. This dataset holds significant potential for use in various research areas, including the evaluation of incremental learning, novel class discovery, and long-tailed learning, among others. Project page: https://tv-100.github.io/
- Abstract(参考訳): 事前訓練されたモデルの時代は、機械学習コミュニティに多くの新しい洞察をもたらした。
様々な疑問が浮かび上がっており、「事前訓練されたモデルは包括的知識を持っているか」が最重要視されている。
この論文は、この決定的な調査に対処しようとしている。
目的に応じて,2021年以降に公開されたテレビシリーズの画像からなる新しいデータセットを公開している。
このデータセットは、インクリメンタルラーニング、新しいクラス発見、長期学習など、様々な研究領域での利用に有意な可能性を秘めている。
プロジェクトページ: https://tv-100.github.io/
関連論文リスト
- CinePile: A Long Video Question Answering Dataset and Benchmark [55.30860239555001]
我々は、CinePileという新しいデータセットとベンチマークを提示する。
包括的データセットは305,000の多重選択質問(MCQ)から構成されており、様々な視覚的・マルチモーダル的な側面をカバーしている。
トレーニングスプリットに関して、オープンソースのVideo-LLMを微調整し、データセットのテストスプリット上で、オープンソースとプロプライエタリなビデオ中心LLMの両方を評価しました。
論文 参考訳(メタデータ) (2024-05-14T17:59:02Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Large-scale Multi-Modal Pre-trained Models: A Comprehensive Survey [66.18478838828231]
マルチモーダルな事前訓練型大型モデルは近年ますます注目を集めている。
本稿では, 自然言語処理, コンピュータビジョン, 音声処理における従来の深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・
次に,マルチモーダル・プレトレーニング・モデル(MM-PTM)のタスク定義,課題,メリットを紹介し,データ,目的,ネットワーク,知識強化による事前トレーニングに着目して,MM-PTMについて議論する。
論文 参考訳(メタデータ) (2023-02-20T15:34:03Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Can Population-based Engagement Improve Personalisation? A Novel Dataset
and Experiments [21.12546768556595]
VLEは、公開されている科学ビデオ講義から抽出されたコンテンツとビデオベースの特徴からなる、新しいデータセットである。
実験結果から,新たに提案したVLEデータセットがコンテキストに依存しないエンゲージメント予測モデルの構築につながることが示唆された。
構築したモデルとパーソナライズアルゴリズムを組み合わせる実験は、教育推薦者によるコールドスタート問題に対処する上で有望な改善を示す。
論文 参考訳(メタデータ) (2022-06-22T15:53:24Z) - PEEK: A Large Dataset of Learner Engagement with Educational Videos [20.49299110732228]
我々は,教育ビデオに携わる学習者の大規模な新しいデータセットをリリースする。
このデータセットはPEEK(Personalized Educational Engagement with Knowledge Topics)と名付けられたもので、この性質について初めて公開されたデータセットである。
学習者のエンゲージメントの信号は、リッチなコンテンツ表現と一致して、強力なパーソナライズアルゴリズムを構築するための道を開くだろうと考えています。
論文 参考訳(メタデータ) (2021-09-03T11:23:02Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - VLEngagement: A Dataset of Scientific Video Lectures for Evaluating
Population-based Engagement [23.078055803229912]
ビデオ講義は、現在のデジタル時代の大衆に知識を与える主要なモダリティの1つとなっている。
科学ビデオ講義における学習者の関与を理解することを目的としたデータと研究は依然として重要なニーズである。
本稿では,VLEngagementについて紹介する。VLEngagementは,公開科学ビデオ講義から抽出したコンテンツベースおよびビデオ特有の特徴からなる,新しいデータセットである。
論文 参考訳(メタデータ) (2020-11-02T14:20:19Z) - OvA-INN: Continual Learning with Invertible Neural Networks [0.0]
OvA-INNは、一度に1つのクラスを学習でき、以前のデータを格納しない。
特徴抽出器上にInvertible Networkを積み重ねることで,事前学習モデルの活用が可能であることを示す。
論文 参考訳(メタデータ) (2020-06-24T14:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。