論文の概要: You Only Look One-level Feature
- arxiv url: http://arxiv.org/abs/2103.09460v1
- Date: Wed, 17 Mar 2021 06:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 12:58:41.434519
- Title: You Only Look One-level Feature
- Title(参考訳): ワンレベル機能しか見えません
- Authors: Qiang Chen, Yingming Wang, Tong Yang, Xiangyu Zhang, Jian Cheng, Jian
Sun
- Abstract要約: 本稿では,一段検出器のピラミッドネットワーク(FPN)を再検討し,FPNの成功は,その分割・対数解によるものであることを指摘した。
複雑な機能ピラミッドを採用する代わりに、この問題に対処する別の方法を導入する。
シンプルで効率的なソリューションに基づいて、You Only Look One-level Feature(YOLOF)を紹介します。
- 参考スコア(独自算出の注目度): 32.42416304550846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper revisits feature pyramids networks (FPN) for one-stage detectors
and points out that the success of FPN is due to its divide-and-conquer
solution to the optimization problem in object detection rather than
multi-scale feature fusion. From the perspective of optimization, we introduce
an alternative way to address the problem instead of adopting the complex
feature pyramids - {\em utilizing only one-level feature for detection}. Based
on the simple and efficient solution, we present You Only Look One-level
Feature (YOLOF). In our method, two key components, Dilated Encoder and Uniform
Matching, are proposed and bring considerable improvements. Extensive
experiments on the COCO benchmark prove the effectiveness of the proposed
model. Our YOLOF achieves comparable results with its feature pyramids
counterpart RetinaNet while being $2.5\times$ faster. Without transformer
layers, YOLOF can match the performance of DETR in a single-level feature
manner with $7\times$ less training epochs. With an image size of
$608\times608$, YOLOF achieves 44.3 mAP running at 60 fps on 2080Ti, which is
$13\%$ faster than YOLOv4. Code is available at
\url{https://github.com/megvii-model/YOLOF}.
- Abstract(参考訳): 本稿では,一段階検出器の特徴ピラミッドネットワーク(fpn)を再検討し,fpnの成功は,マルチスケール特徴融合ではなく,オブジェクト検出における最適化問題に対する分割・解法によるものであることを指摘する。
最適化の観点からは、複雑な特徴ピラミッドを採用する代わりに、この問題に対処する別の方法を導入する。
シンプルで効率的なソリューションに基づいて、You Only Look One-level Feature (YOLOF)を提示する。
本手法では,Dilated EncoderとUniform Matchingの2つの重要なコンポーネントを提案し,大幅な改良を加えた。
COCOベンチマークの大規模な実験により,提案モデルの有効性が証明された。
私たちのYOLOFは、RetinaNetに匹敵する機能ピラミッドで同等の結果を得ています。
トランスフォーマー層がなければ、YOLOFはDETRのパフォーマンスをシングルレベルな機能として、より少ないトレーニングエポックで7\times$で一致させることができる。
画像サイズは608\times608$で、2080Tiの60fpsで44.3mAP、YOLOv4より13.%速い。
コードは \url{https://github.com/megvii-model/YOLOF} で入手できる。
関連論文リスト
- LeYOLO, New Scalable and Efficient CNN Architecture for Object Detection [0.0]
FLOPに基づく効率的な物体検出のためのニューラルネットワークアーキテクチャの設計選択に着目する。
そこで本研究では,YOLOモデルの有効性を高めるために,いくつかの最適化手法を提案する。
本稿では、オブジェクト検出のための新しいスケーリングパラダイムと、LeYOLOと呼ばれるYOLO中心のモデルに寄与する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - MODIPHY: Multimodal Obscured Detection for IoT using PHantom Convolution-Enabled Faster YOLO [10.183459286746196]
YOLO Phantomは、史上最小のYOLOモデルのひとつです。
YOLO Phantomは最新のYOLOv8nモデルと同等の精度を実現し、パラメータとモデルサイズを同時に削減する。
実際の有効性は、高度な低照度カメラとRGBカメラを備えたIoTプラットフォーム上で実証され、AWSベースの通知エンドポイントにシームレスに接続される。
論文 参考訳(メタデータ) (2024-02-12T18:56:53Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - YOLOV: Making Still Image Object Detectors Great at Video Object
Detection [23.039968987772543]
映像オブジェクト検出(VID)は,映像の外観のばらつきやフレームの多様さにより困難である。
この研究は、問題に対処するための単純だが効果的な戦略を提案する。
我々のYOLOXベースのモデルは、有望なパフォーマンスを達成することができる(例えば、1つの2080Ti GPU上のImageNet VIDデータセット上で、30FPS以上の87.5% AP50)。
論文 参考訳(メタデータ) (2022-08-20T14:12:06Z) - SFNet: Faster and Accurate Semantic Segmentation via Semantic Flow [88.97790684009979]
性能を改善するための一般的な実践は、強力な意味表現を持つ高解像度の特徴写像を得ることである。
隣接レベルの特徴マップ間のテキストセマンティックフローを学習するためのフローアライメントモジュール(FAM)を提案する。
また,高分解能特徴写像と低分解能特徴写像を直接整列するGated Dual Flow Alignment Moduleを提案する。
論文 参考訳(メタデータ) (2022-07-10T08:25:47Z) - YOLO-Pose: Enhancing YOLO for Multi Person Pose Estimation Using Object
Keypoint Similarity Loss [1.3381749415517017]
YOLO-poseは関節検出と2次元多人数ポーズ推定のための新しいヒートマップのないアプローチである。
私たちのフレームワークは、モデルのエンドツーエンドのトレーニングを可能にし、オブジェクトキーポイント類似度(OKS)メトリクス自体を最適化します。
YOLO-poseはCOCO検証(90.2% AP50)とテストデフセット(90.3% AP50)の新たな最先端結果を達成する
論文 参考訳(メタデータ) (2022-04-14T08:02:40Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。