論文の概要: OpenVE-3M: A Large-Scale High-Quality Dataset for Instruction-Guided Video Editing
- arxiv url: http://arxiv.org/abs/2512.07826v2
- Date: Tue, 16 Dec 2025 16:37:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 14:48:05.90004
- Title: OpenVE-3M: A Large-Scale High-Quality Dataset for Instruction-Guided Video Editing
- Title(参考訳): OpenVE-3M:インストラクションガイドによるビデオ編集のための大規模高品質データセット
- Authors: Haoyang He, Jie Wang, Jiangning Zhang, Zhucun Xue, Xingyuan Bu, Qiangpeng Yang, Shilei Wen, Lei Xie,
- Abstract要約: OpenVE-3Mは、命令ベースのビデオ編集のためのオープンソース、大規模、高品質なデータセットである。
この分野での統一ベンチマークの欠如に対処するため,431組のビデオ編集ペアを含むOpenVE-Benchを構築した。
データセットに基づいてトレーニングされた5BモデルであるOpenVE-Editを提示する。
- 参考スコア(独自算出の注目度): 40.87442780303236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality and diversity of instruction-based image editing datasets are continuously increasing, yet large-scale, high-quality datasets for instruction-based video editing remain scarce. To address this gap, we introduce OpenVE-3M, an open-source, large-scale, and high-quality dataset for instruction-based video editing. It comprises two primary categories: spatially-aligned edits (Global Style, Background Change, Local Change, Local Remove, Local Add, and Subtitles Edit) and non-spatially-aligned edits (Camera Multi-Shot Edit and Creative Edit). All edit types are generated via a meticulously designed data pipeline with rigorous quality filtering. OpenVE-3M surpasses existing open-source datasets in terms of scale, diversity of edit types, instruction length, and overall quality. Furthermore, to address the lack of a unified benchmark in the field, we construct OpenVE-Bench, containing 431 video-edit pairs that cover a diverse range of editing tasks with three key metrics highly aligned with human judgment. We present OpenVE-Edit, a 5B model trained on our dataset that demonstrates remarkable efficiency and effectiveness by setting a new state-of-the-art on OpenVE-Bench, outperforming all prior open-source models including a 14B baseline. Project page is at https://lewandofskee.github.io/projects/OpenVE.
- Abstract(参考訳): 命令ベースの画像編集データセットの品質と多様性は継続的に増加しているが、命令ベースのビデオ編集のための大規模かつ高品質なデータセットは依然として不足している。
このギャップに対処するため,オープンソースの大規模かつ高品質な映像編集用データセットOpenVE-3Mを導入する。
空間的に整列した編集(Global Style、Backside Change、Local Change、Local Remove、Local Add、Subtitles Edit)と非親密な編集(Camera Multi-Shot Edit、Creative Edit)である。
すべての編集タイプは、厳密に設計されたデータパイプラインを通じて、厳密な品質のフィルタリングによって生成される。
OpenVE-3Mは、スケール、編集タイプ、命令長、全体的な品質の点で、既存のオープンソースデータセットを超える。
さらに、この分野での統一ベンチマークの欠如に対処するため、我々はOpenVE-Benchを構築し、人間の判断に高度に適合した3つの重要な指標を用いて、多種多様な編集タスクをカバーする431の動画編集ペアを構築した。
OpenVE-Editはデータセットに基づいてトレーニングされた5Bモデルで、OpenVE-Benchに新たな最先端設定を行うことで、14Bベースラインを含む以前のすべてのオープンソースモデルよりも優れた効率と効果を示す。
プロジェクトページはhttps://lewandofskee.github.io/projects/OpenVEにある。
関連論文リスト
- EditVerse: Unifying Image and Video Editing and Generation with In-Context Learning [58.53074381801114]
イメージとビデオの生成と編集を単一のモデルで統合したフレームワークであるEditVerseを紹介する。
テキスト、画像、ビデオなどのすべてのモダリティを統一されたトークンシーケンスとして表現することで、EditVerseは、堅牢なインコンテキスト学習を実現するために自己アテンションを活用する。
多様なタスクや解像度をカバーする命令ベースのビデオ編集のための最初のベンチマークであるEditVerseBenchを紹介する。
論文 参考訳(メタデータ) (2025-09-24T17:59:30Z) - Generating High-Quality Datasets for Code Editing via Open-Source Language Models [49.01026966779838]
我々は,リアルなコード編集三脚を合成するオープンソースのパイプラインであるOpenCodeEditを紹介する。
パイプラインは簡潔な"遅延"命令とより詳細な"記述"命令の両方を生成し、データ品質と多様性を保証するために差分とトピックに基づいたフィルタリングを適用する。
OCEDataFTの細調整された3つのベースモデルは、CanItEditベンチマークで大幅なパフォーマンス向上をもたらし、相対パス@1は4.50%から20.79%まで改善された。
論文 参考訳(メタデータ) (2025-09-19T03:57:39Z) - TDVE-Assessor: Benchmarking and Evaluating the Quality of Text-Driven Video Editing with LMMs [54.44479359918971]
テキスト駆動ビデオ編集のための大規模ベンチマークデータセットであるTDVE-DBを紹介する。
TDVE-DBは8つの編集カテゴリにまたがる12の多様なモデルから生成される3,857の編集ビデオで構成されている。
テキスト駆動ビデオ編集評価に特化して設計された新しいVQAモデルであるTDVE-Assessorを提案する。
論文 参考訳(メタデータ) (2025-05-26T05:47:09Z) - InsViE-1M: Effective Instruction-based Video Editing with Elaborate Dataset Construction [10.855393943204728]
高品質なインストラクションベースのビデオ編集データセットを,100万トリプル,すなわちInsViE-1Mで提示する。
高品質な画像から様々なビデオ編集三脚を生成しフィルタする。
実験では、InsViE-1Mデータセットの利点と、最先端の作業に対するトレーニングされたモデルが示されています。
論文 参考訳(メタデータ) (2025-03-26T07:30:58Z) - AnyEdit: Mastering Unified High-Quality Image Editing for Any Idea [88.79769371584491]
我々は、総合的なマルチモーダル命令編集データセットであるAnyEditを提示する。
我々は,AnyEditコレクションの多様性と品質を,初期データ多様性,適応編集プロセス,自動編集結果の選択という3つの側面を通じて保証する。
3つのベンチマークデータセットの実験によると、AnyEditは拡散ベースの編集モデルのパフォーマンスを一貫して向上させる。
論文 参考訳(メタデータ) (2024-11-24T07:02:56Z) - VIVID-10M: A Dataset and Baseline for Versatile and Interactive Video Local Editing [13.006616304789878]
本稿では,データセットVIVID-10MとベースラインモデルVIVIDを紹介する。
VIVID-10Mは、最初の大規模ハイブリッド画像-ビデオローカル編集データセットである。
提案手法は,ビデオローカル編集における最先端性能を実現し,自動計測とユーザスタディの両方においてベースライン手法を超越した。
論文 参考訳(メタデータ) (2024-11-22T10:04:05Z) - EditRoom: LLM-parameterized Graph Diffusion for Composable 3D Room Layout Editing [114.14164860467227]
自然言語コマンドで様々なレイアウト編集を実行できるフレームワークであるEditRoomを提案する。
特にEditRoomは、コマンドプランニングとターゲットシーンの生成にLarge Language Models(LLM)を利用している。
既存の3Dシーンデータセットを拡張する自動パイプラインを開発し,83kの編集ペアを備えた大規模データセットであるEditRoom-DBを導入した。
論文 参考訳(メタデータ) (2024-10-03T17:42:24Z) - UltraEdit: Instruction-based Fine-Grained Image Editing at Scale [43.222251591410455]
本稿では,大規模(約400万の編集サンプル)な画像編集のためのデータセットを自動生成するUltraEditを提案する。
私たちのキーとなるアイデアは、InstructPix2PixやMagicBrushといった既存の画像編集データセットの欠点に対処し、大規模で高品質な画像編集サンプルを作成するための体系的なアプローチを提供することです。
論文 参考訳(メタデータ) (2024-07-07T06:50:22Z) - EffiVED:Efficient Video Editing via Text-instruction Diffusion Models [9.287394166165424]
EffiVEDは、命令誘導ビデオ編集をサポートする効率的な拡散ベースモデルである。
我々は、膨大な画像編集データセットとオープンワールドビデオを、EffiVEDをトレーニングするための高品質なデータセットに変換する。
論文 参考訳(メタデータ) (2024-03-18T08:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。