論文の概要: PP-YOLOE-R: An Efficient Anchor-Free Rotated Object Detector
- arxiv url: http://arxiv.org/abs/2211.02386v1
- Date: Fri, 4 Nov 2022 11:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 16:53:34.229017
- Title: PP-YOLOE-R: An Efficient Anchor-Free Rotated Object Detector
- Title(参考訳): PP-YOLOE-R:効率的なアンカーフリー回転物体検出器
- Authors: Xinxin Wang, Guanzhong Wang, Qingqing Dang, Yi Liu, Xiaoguang Hu,
Dianhai Yu
- Abstract要約: PP-YOLOE-Rは、PP-YOLOEに基づくアンカーフリー回転物体検出器である。
PP-YOLOE-R-l と PP-YOLOE-R-x は DOTA 1.0 データセット上で 78.14 と 78.28 mAP を達成する。
PP-YOLOE-R-xは全てのアンカーフリー手法を超越し、最先端のアンカーベース2段階モデルとの競合性能を示す。
- 参考スコア(独自算出の注目度): 14.263912554269435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arbitrary-oriented object detection is a fundamental task in visual scenes
involving aerial images and scene text. In this report, we present PP-YOLOE-R,
an efficient anchor-free rotated object detector based on PP-YOLOE. We
introduce a bag of useful tricks in PP-YOLOE-R to improve detection precision
with marginal extra parameters and computational cost. As a result,
PP-YOLOE-R-l and PP-YOLOE-R-x achieve 78.14 and 78.28 mAP respectively on DOTA
1.0 dataset with single-scale training and testing, which outperform almost all
other rotated object detectors. With multi-scale training and testing,
PP-YOLOE-R-l and PP-YOLOE-R-x further improve the detection precision to 80.02
and 80.73 mAP. In this case, PP-YOLOE-R-x surpasses all anchor-free methods and
demonstrates competitive performance to state-of-the-art anchor-based two-stage
models. Further, PP-YOLOE-R is deployment friendly and PP-YOLOE-R-s/m/l/x can
reach 69.8/55.1/48.3/37.1 FPS respectively on RTX 2080 Ti with TensorRT and
FP16-precision. Source code and pre-trained models are available at
https://github.com/PaddlePaddle/PaddleDetection, which is powered by
https://github.com/PaddlePaddle/Paddle.
- Abstract(参考訳): 任意指向物体検出は、空中画像やシーンテキストを含む視覚シーンの基本課題である。
本稿では,PP-YOLOEに基づく効率的なアンカーフリー回転物体検出器PP-YOLOE-Rを提案する。
PP-YOLOE-Rでは,限界余剰パラメータと計算コストによる検出精度の向上のために,有用なトリックの袋を導入している。
その結果、PP-YOLOE-R-l と PP-YOLOE-R-x はそれぞれ 78.14 と 78.28 mAP をDOTA 1.0 データセット上で達成した。
マルチスケールの訓練と試験により、PP-YOLOE-R-lとPP-YOLOE-R-xはさらに精度を80.02と80.73mAPに改善した。
この場合、PP-YOLOE-R-xはすべてのアンカーフリー手法を超え、最先端のアンカーベース2段階モデルとの競合性能を示す。
さらに、PP-YOLOE-Rは展開に適しており、PP-YOLOE-R-s/m/l/xはRTX 2080 Ti上でそれぞれ69.8/55.1/48.3/37.1 FPSに達する。
ソースコードと事前学習されたモデルはhttps://github.com/paddlepaddle/paddledetectionで入手できる。
関連論文リスト
- Self-Play Preference Optimization for Language Model Alignment [75.83359213697854]
近年の進歩は、嗜好の確率で直接作業することで、人間の嗜好をより正確に反映できることを示している。
本稿では,言語モデルアライメントのためのセルフプレイ方式を提案する。
我々の手法はSPPO(Self-Play Preference Optimization)と呼ばれ、繰り返しポリシー更新を利用してナッシュ均衡を確実に近似する。
論文 参考訳(メタデータ) (2024-05-01T17:59:20Z) - Exploring the impact of low-rank adaptation on the performance,
efficiency, and regularization of RLHF [47.960563851948514]
低ランク適応(LoRA)を用いたRLHFの効率的な実装について検討する。
本実装は,フルモデル微調整によるAlpacaFarmチェックポイントよりも優れた性能を実現する。
我々は、より効率的なRLHFの研究を促進するために、コードと事前訓練されたチェックポイントをリリースする。
論文 参考訳(メタデータ) (2023-09-16T17:31:36Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - PP-YOLOE: An evolved version of YOLO [4.9022682894446685]
工業用最先端物体検出器PP-YOLOEについて述べる。
我々は,従来の PP-YOLOv2 に基づいて,CSPRepResStage,ET-head および動的ラベル代入アルゴリズム TAL を備えたアンカーフリーパラダイム,より強力なバックボーン,ネックを最適化した。
その結果、PP-YOLOE-lはCOCOテストデブで51.4 mAP、Tesla V100で78.1 FPSを達成し(+1.9 AP、+13.35%のスピードアップ)、(+1.3 AP、+24.96%の大幅な改善を実現した。
論文 参考訳(メタデータ) (2022-03-30T12:31:39Z) - In Defense of Kalman Filtering for Polyp Tracking from Colonoscopy
Videos [15.377310026794854]
大腸内視鏡画像からのポリープのリアルタイムかつ堅牢な自動検出は、この試験における医師のパフォーマンス向上に不可欠である。
この分野の現在の焦点は、リアルタイムの応用が不可能な正確だが非効率な検出器の開発である。
本稿では,実時間ポリプ検出器の実装を実現するために,強力だが効率的な検出器と協調して動作するカルマンフィルタトラッカーを提案する。
論文 参考訳(メタデータ) (2022-01-27T11:25:58Z) - Rethinking Keypoint Representations: Modeling Keypoints and Poses as
Objects for Multi-Person Human Pose Estimation [79.78017059539526]
本研究では,個々のキーポイントと空間的関連キーポイント(ポーズ)の集合を,密集した単一ステージアンカーベース検出フレームワーク内のオブジェクトとしてモデル化する,新しいヒートマップフリーなキーポイント推定手法を提案する。
実験では, KAPAOは従来手法よりもはるかに高速かつ高精度であり, 熱マップ後処理に悩まされていた。
我々の大規模モデルであるKAPAO-Lは、テスト時間拡張なしでMicrosoft COCO Keypoints検証セット上で70.6のAPを達成する。
論文 参考訳(メタデータ) (2021-11-16T15:36:44Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z) - PP-YOLOv2: A Practical Object Detector [13.262416549127664]
PP-YOLOの性能向上のために既存の改良品のコレクションを評価した。
複数の効果的な改良を組み合わせることで、PP-YOLOの性能は45.9% mAPから49.5% mAPに向上する。
PP-YOLOv2は68.9FPSで640x640の入力サイズで動作する。
論文 参考訳(メタデータ) (2021-04-21T08:55:37Z) - RMOPP: Robust Multi-Objective Post-Processing for Effective Object
Detection [0.0]
RMOPPは統計的に駆動された後処理アルゴリズムであり、精度とリコールの同時最適化を可能にする。
MS-COCOデータセットを用いて、YOLOv2上で魅力的なテストケースを提供する。
論文 参考訳(メタデータ) (2021-02-09T00:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。