論文の概要: PVUW 2025 Challenge Report: Advances in Pixel-level Understanding of Complex Videos in the Wild
- arxiv url: http://arxiv.org/abs/2504.11326v1
- Date: Tue, 15 Apr 2025 16:02:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:09:35.989209
- Title: PVUW 2025 Challenge Report: Advances in Pixel-level Understanding of Complex Videos in the Wild
- Title(参考訳): PVUW 2025 Challenge Report: Advances in Pixel-level Understanding of Complex Videos in the Wild
- Authors: Henghui Ding, Chang Liu, Nikhila Ravi, Shuting He, Yunchao Wei, Song Bai, Philip Torr, Kehuan Song, Xinglin Xie, Kexin Zhang, Licheng Jiao, Lingling Li, Shuyuan Yang, Xuqiang Cao, Linnan Zhao, Jiaxuan Zhao, Fang Liu, Mengjiao Wang, Junpei Zhang, Xu Liu, Yuting Yang, Mengru Ma, Hao Fang, Runmin Cong, Xiankai Lu, Zhiyang Che, Wei Zhan, Tianming Liang, Haichao Jiang, Wei-Shi Zheng, Jian-Fang Hu, Haobo Yuan, Xiangtai Li, Tao Zhang, Lu Qi, Ming-Hsuan Yang,
- Abstract要約: 本報告では,CVPR 2025と共同で開催されている第4回PVUWチャレンジについて概観する。
課題は、複雑なシーンビデオオブジェクトセグメンテーションに焦点を当てたMOSEと、モーションガイドによる言語ベースのビデオセグメンテーションをターゲットとするMeViSの2つのトラックである。
- 参考スコア(独自算出の注目度): 167.69802735001457
- License:
- Abstract: This report provides a comprehensive overview of the 4th Pixel-level Video Understanding in the Wild (PVUW) Challenge, held in conjunction with CVPR 2025. It summarizes the challenge outcomes, participating methodologies, and future research directions. The challenge features two tracks: MOSE, which focuses on complex scene video object segmentation, and MeViS, which targets motion-guided, language-based video segmentation. Both tracks introduce new, more challenging datasets designed to better reflect real-world scenarios. Through detailed evaluation and analysis, the challenge offers valuable insights into the current state-of-the-art and emerging trends in complex video segmentation. More information can be found on the workshop website: https://pvuw.github.io/.
- Abstract(参考訳): 本報告では,CVPR 2025と共同で開催されている第4回PVUWチャレンジについて概観する。
課題の成果、参加方法論、今後の研究方向性をまとめたものである。
この課題には、複雑なシーンビデオオブジェクトセグメンテーションに焦点を当てたMOSEと、モーションガイドによる言語ベースのビデオセグメンテーションをターゲットとするMeViSの2つのトラックがある。
どちらのトラックも、現実世界のシナリオをよりよく反映するように設計された、より困難なデータセットを導入している。
この課題は、詳細な評価と分析を通じて、複雑なビデオセグメンテーションにおける現在の最先端および新興トレンドに関する貴重な洞察を提供する。
詳細はワークショップのWebサイトにある。
関連論文リスト
- AIM 2024 Sparse Neural Rendering Challenge: Methods and Results [64.19942455360068]
本稿では,ECCV 2024と共同で開催されるAIM(Advanceds in Image Manipulation)ワークショップの一部であるスパースニューラルレンダリングの課題についてレビューする。
この課題は、スパース画像から多様なシーンを合成する新しいカメラビューを作ることである。
参加者は、Pak Signal-to-Noise Ratio (PSNR) 測定によって測定された地中真実像に対する客観的忠実度を最適化するよう依頼される。
論文 参考訳(メタデータ) (2024-09-23T14:17:40Z) - LSVOS Challenge Report: Large-scale Complex and Long Video Object Segmentation [124.50550604020684]
本稿では,ECCV 2024ワークショップと連携して,第6回大規模ビデオオブジェクト(LSVOS)チャレンジを紹介する。
今年の課題には、ビデオオブジェクト(VOS)とビデオオブジェクト(RVOS)の2つのタスクが含まれる。
今年の挑戦は、8か国以上の20以上の機関から129の登録チームを引き寄せた。
論文 参考訳(メタデータ) (2024-09-09T17:45:45Z) - PVUW 2024 Challenge on Complex Video Understanding: Methods and Results [199.5593316907284]
我々は、MOSEデータセットに基づく複合ビデオオブジェクトトラックと、MeViSデータセットに基づくモーション表現ガイドビデオトラックの2つの新しいトラックを追加した。
2つの新しいトラックでは、挑戦的な要素を特徴とする追加のビデオとアノテーションを提供しています。
これらの新しいビデオ、文、アノテーションにより、より包括的で堅牢なビデオシーン理解の開発を促進することができる。
論文 参考訳(メタデータ) (2024-06-24T17:38:58Z) - 1st Place Solution for MeViS Track in CVPR 2024 PVUW Workshop: Motion Expression guided Video Segmentation [81.50620771207329]
ビデオオブジェクトセグメンテーション(RVOS)における静的支配データとフレームサンプリングの有効性について検討する。
本手法は,競技段階でのJ&Fスコア0.5447を達成し,PVUWチャレンジのMeViSトラックで1位となった。
論文 参考訳(メタデータ) (2024-06-11T08:05:26Z) - The Second Place Solution for The 4th Large-scale Video Object
Segmentation Challenge--Track 3: Referring Video Object Segmentation [18.630453674396534]
ReferFormerは、すべてのビデオフレームで言語表現によって参照される所定のビデオでオブジェクトインスタンスをセグメントすることを目的としている。
本研究は, 循環学習率, 半教師付きアプローチ, テスト時間拡張推論など, さらなる向上策を提案する。
改良されたReferFormerはCVPR2022 Referring Youtube-VOS Challengeで2位にランクインした。
論文 参考訳(メタデータ) (2022-06-24T02:15:06Z) - ViSeRet: A simple yet effective approach to moment retrieval via
fine-grained video segmentation [6.544437737391409]
本稿では,ICCV VALUE Challenge 2021のビデオ検索における第1位ソリューションを提案する。
本稿では,2つのビデオテキスト検索タスクを共同で行うための,シンプルかつ効果的な手法を提案する。
4つのデータセットで新しい最先端のパフォーマンスを実現するアンサンブルモデルを作成します。
論文 参考訳(メタデータ) (2021-10-11T10:39:13Z) - The End-of-End-to-End: A Video Understanding Pentathlon Challenge (2020) [186.7816349401443]
我々は、IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2020と共同で開かれたオープンコンペティションである、新しいビデオ理解ペンタトロンチャレンジを紹介する。
課題は,テキスト・ビデオ検索の新しい手法を探求し,評価することであった。
論文 参考訳(メタデータ) (2020-08-03T09:55:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。