論文の概要: Poly-YOLO: higher speed, more precise detection and instance
segmentation for YOLOv3
- arxiv url: http://arxiv.org/abs/2005.13243v2
- Date: Fri, 29 May 2020 11:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:49:01.235979
- Title: Poly-YOLO: higher speed, more precise detection and instance
segmentation for YOLOv3
- Title(参考訳): Poly-YOLO: YOLOv3の高速,高精度検出,インスタンスセグメンテーション
- Authors: Petr Hurtik, Vojtech Molek, Jan Hula, Marek Vajgl, Pavel Vlasanek,
Tomas Nejezchleba
- Abstract要約: より優れたパフォーマンスと,Poly-YOLOと呼ばれるインスタンスセグメンテーションによって拡張されたYOLOの新バージョンを提案する。
Poly-YOLOはYOLOv3の元々の考え方に基づいており、大量のリライトラベルとアンカーの非効率分布という2つの弱点を取り除いている。
- 参考スコア(独自算出の注目度): 2.0103493159384276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new version of YOLO with better performance and extended with
instance segmentation called Poly-YOLO. Poly-YOLO builds on the original ideas
of YOLOv3 and removes two of its weaknesses: a large amount of rewritten labels
and inefficient distribution of anchors. Poly-YOLO reduces the issues by
aggregating features from a light SE-Darknet-53 backbone with a hypercolumn
technique, using stairstep upsampling, and produces a single scale output with
high resolution. In comparison with YOLOv3, Poly-YOLO has only 60% of its
trainable parameters but improves mAP by a relative 40%. We also present
Poly-YOLO lite with fewer parameters and a lower output resolution. It has the
same precision as YOLOv3, but it is three times smaller and twice as fast, thus
suitable for embedded devices. Finally, Poly-YOLO performs instance
segmentation using bounding polygons. The network is trained to detect
size-independent polygons defined on a polar grid. Vertices of each polygon are
being predicted with their confidence, and therefore Poly-YOLO produces
polygons with a varying number of vertices.
- Abstract(参考訳): より優れたパフォーマンスと,Poly-YOLOと呼ばれるインスタンスセグメンテーションによって拡張されたYOLOの新バージョンを提案する。
Poly-YOLOはYOLOv3の元々の考え方に基づいており、大量のリライトラベルとアンカーの非効率分布という2つの弱点を取り除く。
Poly-YOLOは、高カラム技術を用いて軽量SE-Darknet-53バックボーンから特徴を集約し、ステップアップサンプリングを使用して、高解像度で単一スケール出力を生成することで問題を軽減している。
YOLOv3と比較して、Poly-YOLOはトレーニング可能なパラメータの60%しか持っていないが、mAPを相対40%改善している。
また,より少ないパラメータと低い出力分解能を有するポリヨーロライトを提案する。
YOLOv3と同じ精度だが、3倍小さく2倍の速さで、組込みデバイスに適している。
最後に、Poly-YOLOはバウンディングポリゴンを使用してインスタンスセグメンテーションを行う。
ネットワークは、極性格子上に定義されたサイズ非依存多角形を検出するように訓練される。
各ポリゴンの頂点はその信頼度で予測され、したがってポリヨーロは様々な数の頂点を持つポリゴンを生成する。
関連論文リスト
- Hyper-YOLO: When Visual Object Detection Meets Hypergraph Computation [74.65906322148997]
本稿では,画像特徴量間の複雑な高次相関を捉えるためにハイパーグラフ計算を統合する新しいオブジェクト検出手法を提案する。
Hyper-YOLOは、高度なYOLOv8-NとYOLOv9Tを12%のtextval$と9%のAPMoonLabの改善で大幅に上回っている。
論文 参考訳(メタデータ) (2024-08-09T01:21:15Z) - Quantizing YOLOv7: A Comprehensive Study [0.0]
本稿では,最先端のYOLOv7モデルの事前学習重みに対する様々な量子化スキームの有効性について検討する。
その結果、4ビット量子化と異なる粒度の組合せを組み合わせることで、均一な量子化と非一様量子化のための3.92倍と3.86倍のメモリ節約が得られることがわかった。
論文 参考訳(メタデータ) (2024-07-06T03:23:04Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - MODIPHY: Multimodal Obscured Detection for IoT using PHantom Convolution-Enabled Faster YOLO [10.183459286746196]
YOLO Phantomは、史上最小のYOLOモデルのひとつです。
YOLO Phantomは最新のYOLOv8nモデルと同等の精度を実現し、パラメータとモデルサイズを同時に削減する。
実際の有効性は、高度な低照度カメラとRGBカメラを備えたIoTプラットフォーム上で実証され、AWSベースの通知エンドポイントにシームレスに接続される。
論文 参考訳(メタデータ) (2024-02-12T18:56:53Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Gold-YOLO: Efficient Object Detector via Gather-and-Distribute Mechanism [40.31805155724484]
Gold-YOLOと名付けられた新しい設計モデルは、マルチスケールの機能融合能力を向上する。
YOLOシリーズにMAEスタイルの事前トレーニングを初めて実装し、YOLOシリーズモデルが教師なし事前トレーニングの恩恵を受けることができるようにした。
論文 参考訳(メタデータ) (2023-09-20T14:03:47Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - DAMO-YOLO : A Report on Real-Time Object Detection Design [19.06518351354291]
本稿では,最新のYOLOシリーズよりも高速かつ高精度なオブジェクト検出手法であるDAMO-YOLOを提案する。
我々は最大エントロピーの原理で導かれるMAE-NASを用いて検出バックボーンを探索する。
「首と首のデザインでは、大首と小首の規則に従っている。」
論文 参考訳(メタデータ) (2022-11-23T17:59:12Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Exploring Data Augmentation for Multi-Modality 3D Object Detection [82.9988604088494]
ポイントクラウドとイメージに基づくマルチモダリティメソッドは、ポイントクラウドのみを使用するアプローチよりも、わずかに良いか、時には悪いだけである。
トランスフォーメーションフローと呼ばれるパイプラインを提案し、トランスフォーメーションのリバースとリプレイによってシングルモードとマルチモードのデータ拡張のギャップを埋める。
また,本手法は第3回nuScenes検出チャレンジでPKL賞を受賞した。
論文 参考訳(メタデータ) (2020-12-23T15:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。