論文の概要: V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results
- arxiv url: http://arxiv.org/abs/2406.11739v1
- Date: Mon, 17 Jun 2024 16:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 13:33:44.835134
- Title: V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results
- Title(参考訳): V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results
- Authors: Jiaqi Wang, Yuhang Zang, Pan Zhang, Tao Chu, Yuhang Cao, Zeyi Sun, Ziyu Liu, Xiaoyi Dong, Tong Wu, Dahua Lin, Zeming Chen, Zhi Wang, Lingchen Meng, Wenhao Yao, Jianwei Yang, Sihong Wu, Zhineng Chen, Zuxuan Wu, Yu-Gang Jiang, Peixi Wu, Bosong Chai, Xuan Nie, Longquan Yan, Zeyu Wang, Qifan Zhou, Boning Wang, Jiaqi Huang, Zunnan Xu, Xiu Li, Kehong Yuan, Yanyan Zu, Jiayao Ha, Qiong Gao, Licheng Jiao,
- Abstract要約: V3Det Challenge 2024は、オブジェクト検出研究の境界を推し進めることを目的としている。
Vast Vocabulary Object DetectionとOpen Vocabulary Object Detectionの2つのトラックで構成されている。
我々は,広い語彙とオープン語彙のオブジェクト検出において,今後の研究の方向性を刺激することを目指している。
- 参考スコア(独自算出の注目度): 142.5704093410454
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Detecting objects in real-world scenes is a complex task due to various challenges, including the vast range of object categories, and potential encounters with previously unknown or unseen objects. The challenges necessitate the development of public benchmarks and challenges to advance the field of object detection. Inspired by the success of previous COCO and LVIS Challenges, we organize the V3Det Challenge 2024 in conjunction with the 4th Open World Vision Workshop: Visual Perception via Learning in an Open World (VPLOW) at CVPR 2024, Seattle, US. This challenge aims to push the boundaries of object detection research and encourage innovation in this field. The V3Det Challenge 2024 consists of two tracks: 1) Vast Vocabulary Object Detection: This track focuses on detecting objects from a large set of 13204 categories, testing the detection algorithm's ability to recognize and locate diverse objects. 2) Open Vocabulary Object Detection: This track goes a step further, requiring algorithms to detect objects from an open set of categories, including unknown objects. In the following sections, we will provide a comprehensive summary and analysis of the solutions submitted by participants. By analyzing the methods and solutions presented, we aim to inspire future research directions in vast vocabulary and open-vocabulary object detection, driving progress in this field. Challenge homepage: https://v3det.openxlab.org.cn/challenge
- Abstract(参考訳): 現実世界のシーンで物体を検出することは、様々な課題のために複雑な作業である。
この課題は、オブジェクト検出の分野を前進させるために、公開ベンチマークや課題の開発を必要とする。
これまでのCOCOとLVISチャレンジの成功に触発されて、米国シアトルのCVPR 2024で、第4回Open World Vision Workshop: Visual Perception via Learning in a Open World (VPLOW)とともに、V3Det Challenge 2024を組織しました。
この課題は、オブジェクト検出研究の境界を押し進め、この分野のイノベーションを促進することを目的としている。
2024年のV3Detチャレンジは2つのトラックで構成されている。
1)Vast Vocabulary Object Detection: このトラックは、13204カテゴリの大規模な集合からオブジェクトを検出し、検出アルゴリズムの多様なオブジェクトを認識および特定する能力をテストする。
2) Open Vocabulary Object Detection: このトラックはさらに一歩進み、未知のオブジェクトを含むオープンなカテゴリからオブジェクトを検出するアルゴリズムを必要とする。
以下の節では、参加者が提出したソリューションの包括的概要と分析について述べる。
提案手法と解法を解析することにより,広い語彙およびオープン語彙オブジェクト検出における今後の研究方向を刺激し,この分野の進展を推し進めることを目指す。
チャレンジホームページ: https://v3det.openxlab.org.cn/challenge
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Enhanced Object Detection: A Study on Vast Vocabulary Object Detection Track for V3Det Challenge 2024 [3.5043076887736198]
本研究の成果は, 最大語彙視覚検出課題を対象としたVast Vocabulary Visual Detectionのデータセットから得られたものである。
我々のモデルは,V3Det Challenge 2024のVast Vocabulary Object Detection(Supervised)トラックとOpen Vocabulary Object Detection(OVD)トラックの両方において,ベースラインを改良し,Leadboardの優れたランキングを達成した。
論文 参考訳(メタデータ) (2024-06-13T14:59:45Z) - Few-Shot Object Detection: Research Advances and Challenges [15.916463121997843]
Few-shot Object Detection (FSOD)は、少数の学習技術とオブジェクト検出技術を組み合わせて、注釈付きサンプルに制限のある新しいオブジェクトに迅速に適応する。
本稿では,近年のFSOD分野の進歩を概観する包括的調査を行う。
論文 参考訳(メタデータ) (2024-04-07T03:37:29Z) - CoTDet: Affordance Knowledge Prompting for Task Driven Object Detection [42.2847114428716]
タスク駆動オブジェクト検出は、イメージ内のタスクを提供するのに適したオブジェクトインスタンスを検出することを目的としている。
その課題は、従来のオブジェクト検出のためのクローズドなオブジェクト語彙に制限されるほど多様すぎるタスクのために利用できるオブジェクトカテゴリにある。
本稿では,オブジェクトカテゴリではなく,異なるオブジェクトが同じタスクを達成できる共通属性について検討する。
論文 参考訳(メタデータ) (2023-09-03T06:18:39Z) - V3Det: Vast Vocabulary Visual Detection Dataset [69.50942928928052]
V3Detは巨大なボキャブラリの視覚検出データセットで、大量の画像に正確に注釈付けされたバウンディングボックスがある。
広大な探索空間を提供することで、V3Detは広大かつオープンな語彙オブジェクト検出に関する広範なベンチマークを可能にする。
論文 参考訳(メタデータ) (2023-04-07T17:45:35Z) - Addressing the Challenges of Open-World Object Detection [12.053132866404972]
OW-RCNNは、オープンワールドオブジェクト検出(OWOD)の3つの課題に対処するオープンワールドオブジェクト検出器である。
OW-RCNNは、MS-COCO上のオープンワールド評価プロトコルを用いて、新しい最先端技術を確立する。
論文 参考訳(メタデータ) (2023-03-27T06:11:28Z) - Oriented Object Detection in Optical Remote Sensing Images using Deep Learning: A Survey [10.665235711722076]
オブジェクト指向物体検出は、リモートセンシングにおいて最も基本的で困難なタスクの1つである。
近年,ディープラーニング技術を用いたオブジェクト指向物体検出の進歩が目覚ましい。
論文 参考訳(メタデータ) (2023-02-21T06:31:53Z) - Universal Object Detection with Large Vision Model [79.06618136217142]
本研究は,大規模多領域普遍物体検出問題に焦点をあてる。
これらの課題に対処するために,ラベル処理,階層型設計,資源効率のよいモデルトレーニングを提案する。
本手法は,ロバスト・ビジョン・チャレンジ2022のオブジェクト検出トラックにおいて,優れた2位の地位を確保した。
論文 参考訳(メタデータ) (2022-12-19T12:40:13Z) - Towards Open World Object Detection [68.79678648726416]
ORE: Open World Object Detectorは、対照的なクラスタリングとエネルギーベースの未知の識別に基づいている。
未知のインスタンスの識別と特徴付けは、インクリメンタルなオブジェクト検出設定における混乱を減らすのに役立ちます。
論文 参考訳(メタデータ) (2021-03-03T18:58:18Z) - Concealed Object Detection [140.98738087261887]
隠蔽物体検出(COD)に関する最初の体系的研究を紹介します。
CODは、背景に「完全に」埋め込まれているオブジェクトを特定することを目指しています。
このタスクをより理解するために、cod10kと呼ばれる大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2021-02-20T06:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。