論文の概要: Long-distance tiny face detection based on enhanced YOLOv3 for unmanned
system
- arxiv url: http://arxiv.org/abs/2010.04421v1
- Date: Fri, 9 Oct 2020 08:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:50:09.245400
- Title: Long-distance tiny face detection based on enhanced YOLOv3 for unmanned
system
- Title(参考訳): 無人システム用拡張YOLOv3による長距離微小顔検出
- Authors: Jia-Yi Chang, Yan-Feng Lu, Ya-Jun Liu, Bo Zhou, Hong Qiao
- Abstract要約: 無人プラットフォームのためのYOLOv3アルゴリズムに基づく拡張型ネットワークモデル(YOLOv3-C)を提案する。
拡張モデルにより,長距離群集や高密度群集の場合の顔検出精度が向上する。
- 参考スコア(独自算出の注目度): 10.856903504701712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remote tiny face detection applied in unmanned system is a challeng-ing work.
The detector cannot obtain sufficient context semantic information due to the
relatively long distance. The received poor fine-grained features make the face
detection less accurate and robust. To solve the problem of long-distance
detection of tiny faces, we propose an enhanced network model (YOLOv3-C) based
on the YOLOv3 algorithm for unmanned platform. In this model, we bring in
multi-scale features from feature pyramid networks and make the features
fu-sion to adjust prediction feature map of the output, which improves the
sensitivity of the entire algorithm for tiny target faces. The enhanced model
improves the accuracy of tiny face detection in the cases of long-distance and
high-density crowds. The experimental evaluation results demonstrated the
superior perfor-mance of the proposed YOLOv3-C in comparison with other
relevant detectors in remote tiny face detection. It is worth mentioning that
our proposed method achieves comparable performance with the state of the art
YOLOv4[1] in the tiny face detection tasks.
- Abstract(参考訳): 無人システムに適用されるリモートの小さな顔検出は、面倒な作業だ。
検出器は比較的長い距離のために十分なコンテキスト意味情報を得ることができない。
受信した微妙な特徴は、顔検出の精度を低下させ、堅牢にする。
小型顔の長距離検出の問題を解決するために,無人プラットフォームのためのyolov3アルゴリズムに基づく拡張ネットワークモデル(yolov3-c)を提案する。
このモデルでは,特徴ピラミッドネットワークのマルチスケール機能を導入し,その特徴を融合させて,出力の予測特徴マップを調整し,ターゲットの小さな顔に対するアルゴリズム全体の感度を向上させる。
拡張モデルにより,長距離群集や高密度群集の場合の顔検出精度が向上する。
実験評価の結果, 提案するyolov3-cは, 遠隔微小顔検出における他の検出装置と比較して高いパーフォーマンスを示した。
提案手法は,小さな顔検出タスクにおいて,最先端のYOLOv4[1]と同等の性能を達成できることに留意すべきである。
関連論文リスト
- EfficientSRFace: An Efficient Network with Super-Resolution Enhancement
for Accurate Face Detection [18.977044046941813]
顔検出では、密集した顔予測タスクにおいて、人間の集団の多数の小さな顔のような低解像度の顔が一般的である。
我々は,特徴レベルの超解像再構成ネットワークを導入し,効率的なSRFaceと呼ばれる検出器を開発した。
このモジュールはトレーニングプロセスにおいて補助的な役割を担い、推論時間を増やすことなく推論中に取り除くことができる。
論文 参考訳(メタデータ) (2023-06-04T06:49:44Z) - An advanced YOLOv3 method for small object detection [2.906551456030129]
本稿では,小型物体検出のための改良型YOLOv3アルゴリズムを提案する。
提案手法では,拡張畳み込みミッシュ(DCM)モジュールをYOLOv3のバックボーンネットワークに導入する。
YOLOv3のネックネットワークでは、畳み込みブロックアテンションモジュール(CBAM)とマルチレベル融合モジュールが導入されている。
論文 参考訳(メタデータ) (2022-12-06T07:58:21Z) - YOLO-FaceV2: A Scale and Occlusion Aware Face Detector [3.632920443532506]
本稿では, YOLO-FaceV2 という一段検出器 YOLOv5 に基づくリアルタイム顔検出器を提案する。
我々は、RFEと呼ばれる受容野拡張モジュールを用いて、小さな顔の受容野を高め、小さな物体の位置ずれに対するIoUの感度を補うためにNWD Lossを使用する。
顔検出器はYOLOより優れており、その変異は、簡単で中堅なサブセットで見つけることができる。
論文 参考訳(メタデータ) (2022-08-03T12:40:00Z) - Enhanced Single-shot Detector for Small Object Detection in Remote
Sensing Images [33.84369068593722]
小型物体検出のための画像ピラミッド単発検出器(IPSSD)を提案する。
IPSSDでは、単一ショット検出器と画像ピラミッドネットワークを組み合わせて、候補領域を生成するための意味的に強い特徴を抽出する。
提案するネットワークは,特徴ピラミッドネットワークから小規模な特徴を拡張できる。
論文 参考訳(メタデータ) (2022-05-12T07:35:07Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - EResFD: Rediscovery of the Effectiveness of Standard Convolution for
Lightweight Face Detection [13.357235715178584]
顔検出のための軽量バックボーンアーキテクチャとして,標準的な畳み込みブロックの有効性を再検討する。
チャネル切断された標準畳み込み層は精度と推論速度を向上できることを示す。
提案する検出器EResFDは,CPU上でのVGA画像推測に37.7msしか要しないWIDER FACE Hardサブセット上で80.4%のmAPを得た。
論文 参考訳(メタデータ) (2022-04-04T02:30:43Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - AOT: Appearance Optimal Transport Based Identity Swapping for Forgery
Detection [76.7063732501752]
顔偽造検出のための外観の相違が大きい新しい識別スワップアルゴリズムを提案する。
外観のギャップは主に、照明と肌の色における大きな相違から生じる。
実画像パッチと偽画像パッチの混在とを識別するために識別器を導入する。
論文 参考訳(メタデータ) (2020-11-05T06:17:04Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。