論文の概要: Binge Watch: Reproducible Multimodal Benchmarks Datasets for Large-Scale Movie Recommendation on MovieLens-10M and 20M
- arxiv url: http://arxiv.org/abs/2602.15505v1
- Date: Tue, 17 Feb 2026 11:22:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.044605
- Title: Binge Watch: Reproducible Multimodal Benchmarks Datasets for Large-Scale Movie Recommendation on MovieLens-10M and 20M
- Title(参考訳): Binge Watch:MovieLens-10Mと20Mの大規模映画レコメンデーションのための再現可能なマルチモーダルベンチマークデータセット
- Authors: Giuseppe Spillo, Alessandro Petruzzelli, Cataldo Musto, Marco de Gemmis, Pasquale Lops, Giovanni Semeraro,
- Abstract要約: M3L-10MとM3L-20Mの2つの大規模再現可能なマルチモーダルデータセットを映画領域向けにリリースする。
完全な文書化されたパイプラインに従って、映画のプロット、ポスター、トレーラーを収集し、そこからテキスト、視覚、音響、ビデオの特徴を抽出する。
複数のフォーマットでオリジナルの生データ、抽出された特徴、完全なデータセットをダウンロードするマッピングを公開しています。
- 参考スコア(独自算出の注目度): 36.76326963560822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing interest in Multimodal Recommender Systems (MRSs), collecting high-quality datasets provided with multimedia side information (text, images, audio, video) has become a fundamental step. However, most of the current literature in the field relies on small- or medium-scale datasets that are either not publicly released or built using undocumented processes. In this paper, we aim to fill this gap by releasing M3L-10M and M3L-20M, two large-scale, reproducible, multimodal datasets for the movie domain, obtained by enriching with multimodal features the popular MovieLens-10M and MovieLens-20M, respectively. By following a fully documented pipeline, we collect movie plots, posters, and trailers, from which textual, visual, acoustic, and video features are extracted using several state-of-the-art encoders. We publicly release mappings to download the original raw data, the extracted features, and the complete datasets in multiple formats, fostering reproducibility and advancing the field of MRSs. In addition, we conduct qualitative and quantitative analyses that showcase our datasets across several perspectives. This work represents a foundational step to ensure reproducibility and replicability in the large-scale, multimodal movie recommendation domain. Our resource can be fully accessed at the following link: https://zenodo.org/records/18499145, while the source code is accessible at https://github.com/giuspillo/M3L_10M_20M.
- Abstract(参考訳): MRS(Multimodal Recommender Systems)への関心が高まり、マルチメディア側情報(テキスト、画像、オーディオ、ビデオ)を提供する高品質なデータセットの収集が基本的ステップとなっている。
しかし、この分野の現在の文献のほとんどは、公開されていないか文書化されていないプロセスを使って構築される、小規模または中規模のデータセットに依存している。
本稿では,M3L-10M と M3L-20M の2つの大規模かつ再現可能なマルチモーダルデータセットを,人気の高い MovieLens-10M と MovieLens-20M のマルチモーダル特徴に富ませることで,このギャップを埋めることを目的としている。
完全な文書化されたパイプラインに従うことで、映画のプロット、ポスター、トレーラーを収集し、そこからテキスト、視覚、音響、ビデオの特徴を最先端のエンコーダを使って抽出する。
原データ、抽出した特徴、および完全なデータセットを複数のフォーマットでダウンロードするためのマッピングを公開し、再現性を高め、MSSの分野を前進させます。
さらに、いくつかの視点でデータセットを示す定性的で定量的な分析を行う。
この研究は、大規模なマルチモーダル映画レコメンデーションドメインにおける再現性と複製性を確保するための基本的なステップである。
https://zenodo.org/records/18499145、ソースコードはhttps://github.com/giuspillo/M3L_10M_20Mでアクセスできます。
関連論文リスト
- ViMix-14M: A Curated Multi-Source Video-Text Dataset with Long-Form, High-Quality Captions and Crawl-Free Access [16.89068730775312]
ViMix-14Mは、約1400万対のマルチソースビデオテキストデータセットである。
ViMix-14Mは、様々なオープンビデオソースをマージして構築され、その後にデ複製と品質フィルタリングが統合されている。
マルチモーダル検索,テキスト・ツー・ビデオ生成,ビデオ質問応答タスクによるデータセットの評価を行った。
論文 参考訳(メタデータ) (2025-11-23T10:19:56Z) - ViLLA-MMBench: A Unified Benchmark Suite for LLM-Augmented Multimodal Movie Recommendation [14.62192876151853]
ViLLA-MMBenchはマルチモーダル映画レコメンデーションのベンチマークである。
オーディオ(ブロックレベル、i-ベクター)、ビジュアル(CNN、AVF)、テキストの3つのモードからの密なアイテムの埋め込みを調整する。
不足メタデータやスパースメタデータは、最先端のLCMを使用して自動的に強化される。
論文 参考訳(メタデータ) (2025-08-06T08:39:07Z) - MINT-1T: Scaling Open-Source Multimodal Data by 10x: A Multimodal Dataset with One Trillion Tokens [113.9621845919304]
MINT-1Tは最も広く多様なオープンソースMultimodal INTerleavedデータセットです。
MINT-1Tは1兆個のテキストトークンと340億の画像で構成され、既存のオープンソースデータセットの10倍のスケールアップである。
実験の結果,MINT-1TでトレーニングしたLMMは,以前の先行データセット OBELICS でトレーニングしたモデルの性能に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-06-17T07:21:36Z) - Video-MME: The First-Ever Comprehensive Evaluation Benchmark of Multi-modal LLMs in Video Analysis [120.67048724315619]
Video-MMEは、ビデオ解析におけるMLLMの完全なマルチモード評価ベンチマークである。
我々は,GPT-4シリーズやGemini 1.5 Pro,オープンソース画像モデルなど,最先端のMLLMを幅広く評価した。
我々の実験によると、Gemini 1.5 Proは最も優れた商用モデルであり、オープンソースモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-05-31T17:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。