論文の概要: YOLOCS: Object Detection based on Dense Channel Compression for Feature Spatial Solidification
- arxiv url: http://arxiv.org/abs/2305.04170v6
- Date: Sun, 13 Oct 2024 12:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 15:02:38.145071
- Title: YOLOCS: Object Detection based on Dense Channel Compression for Feature Spatial Solidification
- Title(参考訳): YOLOCS:特徴空間凝固のためのDense Channel Compressionに基づく物体検出
- Authors: Lin Huang, Weisheng Li, Yujuan Tan, Linlin Shen, Jing Yu, Haojie Fu,
- Abstract要約: 本稿では,Dense Channel Compression for Feature Spatial Solidification Structure (DCFS) と非対称多層圧縮デカップリングヘッド (ADH) という,バックボーンとヘッドネットワークのための2つの革新的なモジュールを紹介する。
YOLOv5モデルに統合されると、これらの2つのモジュールは例外的な性能を示し、YOLOCSと呼ばれるモデルが修正される。
- 参考スコア(独自算出の注目度): 38.49525419649799
- License:
- Abstract: In this study, we examine the associations between channel features and convolutional kernels during the processes of feature purification and gradient backpropagation, with a focus on the forward and backward propagation within the network. Consequently, we propose a method called Dense Channel Compression for Feature Spatial Solidification. Drawing upon the central concept of this method, we introduce two innovative modules for backbone and head networks: the Dense Channel Compression for Feature Spatial Solidification Structure (DCFS) and the Asymmetric Multi-Level Compression Decoupled Head (ADH). When integrated into the YOLOv5 model, these two modules demonstrate exceptional performance, resulting in a modified model referred to as YOLOCS. Evaluated on the MSCOCO dataset, the large, medium, and small YOLOCS models yield AP of 50.1%, 47.6%, and 42.5%, respectively. Maintaining inference speeds remarkably similar to those of the YOLOv5 model, the large, medium, and small YOLOCS models surpass the YOLOv5 model's AP by 1.1%, 2.3%, and 5.2%, respectively.
- Abstract(参考訳): 本研究では,機能浄化過程におけるチャネル特性と畳み込みカーネルの関係について検討し,ネットワーク内における前方・後方伝播に着目した。
そこで本稿では,Dense Channel Compression for Feature Spatial Solidificationを提案する。
本手法の中心的な概念に基づいて,Dense Channel Compression for Feature Spatial Solidification Structure (DCFS) と非対称多層圧縮デカップリングヘッド (ADH) という,バックボーンとヘッドネットワークのための2つの革新的なモジュールを紹介した。
YOLOv5モデルに統合されると、これらの2つのモジュールは例外的な性能を示し、YOLOCSと呼ばれるモデルが修正される。
MSCOCOデータセットに基づいて評価すると、大、中、小のYOLOCSモデルはそれぞれ50.1%、47.6%、42.5%のAPが得られる。
推論速度の維持は、YOLOv5モデルと著しく類似しており、大、中、小のYOLOCSモデルは、それぞれYOLOv5モデルのAPを1.1%、2.3%、5.2%上回っている。
関連論文リスト
- CriDiff: Criss-cross Injection Diffusion Framework via Generative Pre-train for Prostate Segmentation [60.61972883059688]
CridiffはCrisscross Injection Strategy(CIS)とGenerative Pre-train(GP)アプローチによる2段階の機能注入フレームワークである。
CISでは,複数レベルのエッジ特徴と非エッジ特徴を効果的に学習するために,並列コンディショナーを2つ提案した。
GPアプローチは、追加パラメータを追加することなく、画像特徴と拡散モデルとの矛盾を緩和する。
論文 参考訳(メタデータ) (2024-06-20T10:46:50Z) - 4Diffusion: Multi-view Video Diffusion Model for 4D Generation [55.82208863521353]
現在の4D生成法は, 高度な拡散生成モデルの助けを借りて, 有意義な有効性を実現している。
モノクロビデオから空間的・時間的に一貫した4Dコンテンツを生成することを目的とした,新しい4D生成パイプライン,すなわち4Diffusionを提案する。
論文 参考訳(メタデータ) (2024-05-31T08:18:39Z) - Self-Balanced R-CNN for Instance Segmentation [2.059150828428537]
インスタンスセグメンテーションタスクにおける現在の最先端の2段階モデルは、いくつかのタイプの不均衡に悩まされている。
本稿では、第2段階のトレーニングにおいて、利益の正の入力領域(RoIs)のユニオン(IoU)分布不均衡について述べる。
我々のセルフバランスR-CNNモデルは、バウンディングボックスとマスクリファインメントの全く新しいループメカニズムを提供する。
論文 参考訳(メタデータ) (2024-04-25T14:22:44Z) - Fostc3net:A Lightweight YOLOv5 Based On the Network Structure Optimization [11.969138981034247]
本稿では,モバイル機器向けにカスタマイズされた軽量YOLOv5技術を提案する。
提案モデルでは,検出精度が1%向上し,FLOPが13%減少し,既存のYOLOv5に比べてモデルパラメータが26%減少した。
論文 参考訳(メタデータ) (2024-03-20T16:07:04Z) - YOLO-TLA: An Efficient and Lightweight Small Object Detection Model
based on YOLOv5 [17.525977065621724]
YOLO-TLAは、YOLOv5上に構築された高度な物体検出モデルである。
まず、ネックネットワークピラミッドアーキテクチャにおいて、小さなオブジェクトに対する検出層を新たに導入する。
このモジュールはスライディングウィンドウの特徴抽出を使い、計算要求とパラメータ数の両方を効果的に最小化する。
論文 参考訳(メタデータ) (2024-02-22T05:55:17Z) - ASF-YOLO: A Novel YOLO Model with Attentional Scale Sequence Fusion for Cell Instance Segmentation [6.502259209532815]
ASF-YOLO(Attentional Scale Sequence Fusion based You Only Look Once)フレームワークを提案する。
空間的およびスケール的な特徴を組み合わせて、正確で高速なセルインスタンスのセグメンテーションを行う。
ボックスmAPは0.91、マスクmAPは0.887、推論速度は2018 Data Science Bowlのデータセットで47.3 FPSである。
論文 参考訳(メタデータ) (2023-12-11T15:47:12Z) - HIC-YOLOv5: Improved YOLOv5 For Small Object Detection [2.4780916008623834]
改良されたYOLOv5モデル: 上記の問題に対処するためにHIC-YOLOv5を提案する。
バックボーンとネックの間には、インボリューションブロックが採用され、特徴マップのチャネル情報を増加させる。
我々の結果は、HIC-YOLOv5がmAP@[.5:.95]を6.42%改善し、mAP@0.5を9.38%改善したことを示している。
論文 参考訳(メタデータ) (2023-09-28T12:40:36Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Full-Duplex Strategy for Video Object Segmentation [141.43983376262815]
Full- Strategy Network (FSNet)はビデオオブジェクトセグメンテーション(VOS)のための新しいフレームワークである
我々のFSNetは、融合復号ステージの前に、クロスモーダルな機能パス(すなわち、送信と受信)を同時に実行します。
我々のFSNetは、VOSとビデオの有能なオブジェクト検出タスクの両方において、他の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-06T14:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。