論文の概要: YUDO: YOLO for Uniform Directed Object Detection
- arxiv url: http://arxiv.org/abs/2308.04542v1
- Date: Tue, 8 Aug 2023 19:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 16:11:05.834309
- Title: YUDO: YOLO for Uniform Directed Object Detection
- Title(参考訳): yudo: 統一指向オブジェクト検出のためのyolo
- Authors: {\DJ}or{\dj}e Nedeljkovi\'c
- Abstract要約: 本稿では,その中心座標と方向角を予測し,対象物を検出する効率的な方法を提案する。
物体の大きさは均一であるため, 物体の幅や高さを予測せずに動作可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents an efficient way of detecting directed objects by
predicting their center coordinates and direction angle. Since the objects are
of uniform size, the proposed model works without predicting the object's width
and height. The dataset used for this problem is presented in Honeybee
Segmentation and Tracking Datasets project. One of the contributions of this
work is an examination of the ability of the standard real-time object
detection architecture like YoloV7 to be customized for position and direction
detection. A very efficient, tiny version of the architecture is used in this
approach. Moreover, only one of three detection heads without anchors is
sufficient for this task. We also introduce the extended Skew Intersection over
Union (SkewIoU) calculation for rotated boxes - directed IoU (DirIoU), which
includes an absolute angle difference. DirIoU is used both in the matching
procedure of target and predicted bounding boxes for mAP calculation, and in
the NMS filtering procedure. The code and models are available at
https://github.com/djordjened92/yudo.
- Abstract(参考訳): 本稿では,その中心座標と方向角を予測し,有向物体を効率的に検出する手法を提案する。
対象物のサイズは一様であるため,提案モデルは対象物の幅や高さを予測せずに動作する。
この問題に使用されるデータセットは、Honeybee Segmentation and Tracking Datasetsプロジェクトで紹介されている。
この研究の貢献の1つは、位置や方向を検出するためにyolov7のような標準リアルタイムオブジェクト検出アーキテクチャをカスタマイズする能力の検討である。
このアプローチでは、非常に効率的で小さなバージョンのアーキテクチャが使用されます。
さらに、アンカーのない3つの検出ヘッドのうち1つだけで十分である。
また, 回転箱-方向iou (diriou) に対するskewiou(union over union)計算について, 絶対角度差を含む拡張スキュー交点を導入する。
DirIoUは、mAP計算のためのターゲットと予測バウンディングボックスのマッチング手順と、NMSフィルタリング手順の両方で使用される。
コードとモデルはhttps://github.com/djordjened92/yudoで入手できる。
関連論文リスト
- SeSame: Simple, Easy 3D Object Detection with Point-Wise Semantics [0.7373617024876725]
自律運転では、3Dオブジェクト検出は、経路計画や動き推定を含む下流タスクに対してより正確な情報を提供する。
本稿では,既存のLiDARのみに基づく3Dオブジェクト検出における意味情報の強化を目的としたSeSameを提案する。
KITTIオブジェクト検出ベンチマークにおいて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - What You See Is What You Detect: Towards better Object Densification in
3D detection [2.3436632098950456]
広く使われているフル形状のコンプリートアプローチは、特に遠く離れた物や歩行者のような小さな物に対して、エラーのアップバウンドを高くする。
従来の手法が生成した予測ポイントの11.3%しか必要としない可視部分補完法を提案する。
密表現を復元するために,目に見える前景オブジェクトに関連付けられた点集合を拡大するメッシュデフォーメーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2023-10-27T01:46:37Z) - YOLIC: An Efficient Method for Object Localization and Classification on
Edge Devices [10.058627390826967]
You Only Look at Interested Cells (YOLIC) は、エッジデバイス上でのオブジェクトのローカライズと分類の効率的な方法である。
個々のピクセルではなく分類にCells of Interestを採用することで、YOLICは関連する情報をカプセル化し、計算負荷を低減し、粗いオブジェクト形状の推論を可能にする。
本稿では, YOLICが最先端のYOLOアルゴリズムに匹敵する検出性能を実現することを示すために, 複数のデータセットに対する広範な実験を行った。
論文 参考訳(メタデータ) (2023-07-13T11:21:58Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - Single Object Tracking through a Fast and Effective Single-Multiple
Model Convolutional Neural Network [0.0]
最近の最先端の(SOTA)アプローチは、エリア内の他のオブジェクトとターゲットを区別するために重い構造を持つマッチングネットワークを取ることに基づいて提案されています。
本稿では,これまでのアプローチとは対照的に,一つのショットで物体の位置を識別できる特殊なアーキテクチャを提案する。
提示されたトラッカーは、1080tiで最大120 fps$の超高速で、挑戦的な状況でsomaと比較してパフォーマンスする。
論文 参考訳(メタデータ) (2021-03-28T11:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。