論文の概要: Lighting and Rotation Invariant Real-time Vehicle Wheel Detector based
on YOLOv5
- arxiv url: http://arxiv.org/abs/2305.17785v1
- Date: Sun, 28 May 2023 18:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 16:36:37.435205
- Title: Lighting and Rotation Invariant Real-time Vehicle Wheel Detector based
on YOLOv5
- Title(参考訳): YOLOv5に基づく照明・回転不変リアルタイム車いす検出装置
- Authors: Michael Shenoda
- Abstract要約: 車いすは、照明と回転不変リアルタイム検出器のアプローチを示すために選ばれた例の1つである。
目的は、他の種類のリアルタイム物体検出器を開発するための基準として使用できる単純なアプローチを提供することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Creating an object detector, in computer vision, has some common challenges
when initially developed based on Convolutional Neural Network (CNN)
architecture. These challenges are more apparent when creating model that needs
to adapt to images captured by various camera orientations, lighting
conditions, and environmental changes. The availability of the initial training
samples to cover all these conditions can be an enormous challenge with a time
and cost burden. While the problem can exist when creating any type of object
detection, some types are less common and have no pre-labeled image datasets
that exists publicly. Sometime public datasets are not reliable nor
comprehensive for a rare object type. Vehicle wheel is one of those example
that been chosen to demonstrate the approach of creating a lighting and
rotation invariant real-time detector based on YOLOv5 architecture. The
objective is to provide a simple approach that could be used as a reference for
developing other types of real-time object detectors.
- Abstract(参考訳): コンピュータビジョンにおけるオブジェクト検出器の作成は、最初は畳み込みニューラルネットワーク(CNN)アーキテクチャに基づいて開発されたとき、いくつかの共通の課題がある。
これらの課題は、様々なカメラの向き、照明条件、環境変化によって捉えられた画像に適応する必要があるモデルを作成するときにより明らかである。
これらの条件をすべてカバーする最初のトレーニングサンプルが利用可能であることは、時間とコストのかかる大きな課題である。
あらゆるタイプのオブジェクト検出を作成する場合、問題は存在するが、いくつかの型は一般的ではなく、公開されているラベル付きイメージデータセットを持たない。
公開データセットは、まれなオブジェクトタイプに対して信頼性や包括性がない場合もあります。
車いすは、YOLOv5アーキテクチャに基づいた光と回転不変のリアルタイム検出器のアプローチを示すために選ばれた例の1つである。
目的は、他のタイプのリアルタイムオブジェクト検出器の開発にリファレンスとして使用できるシンプルなアプローチを提供することである。
関連論文リスト
- Accelerating Object Detection with YOLOv4 for Real-Time Applications [0.276240219662896]
畳み込みニューラルネットワーク(CNN)は、ほとんどの問題に対して画像コンテンツとコンピュータビジョンアプローチを認識する強力なツールとして登場した。
本稿では、畳み込みニューラルネットワーク(CNN)のようなディープラーニングとオブジェクト検出フレームワークの簡単な紹介を紹介する。
論文 参考訳(メタデータ) (2024-10-17T17:44:57Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Unveiling Objects with SOLA: An Annotation-Free Image Search on the
Object Level for Automotive Data Sets [0.18416014644193066]
多様な状況に対処できる堅牢なニューラルネットワークのトレーニングには、多数の画像が必要である。
結果の関数をテストするには、これらの状況やオブジェクトをデータセットから見つけ、抽出する必要がある。
画像中の特定の特性を持つ物体を探索する,最先端のニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T12:48:44Z) - AnyDoor: Zero-shot Object-level Image Customization [63.44307304097742]
ユーザが指定した場所の新しいシーンにターゲットオブジェクトをテレポートする機能を備えた拡散ベースのイメージジェネレータであるAnyDoorを紹介する。
我々のモデルは1回のみ訓練され、推論段階では多様なオブジェクトとシーンの組み合わせに懸命に一般化される。
論文 参考訳(メタデータ) (2023-07-18T17:59:02Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - Event-based YOLO Object Detection: Proof of Concept for Forward
Perception System [0.3058685580689604]
本研究では,道路側物体検出にニューロモルフィック事象データを活用することに焦点を当てた。
本稿では、イベントシミュレートされたA2D2データセットを2つのYOLOv5ネットワークで手動でアノテートし、トレーニングする。
論文 参考訳(メタデータ) (2022-12-14T12:12:29Z) - Unsupervised Image Decomposition with Phase-Correlation Networks [28.502280038100167]
位相相関分解ネットワーク(PCDNet)は、シーンをオブジェクトコンポーネントに分解する新しいモデルである。
実験では,PCDNetが非教師対象発見とセグメンテーションの最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-07T13:57:33Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Rapid Detection of Aircrafts in Satellite Imagery based on Deep Neural
Networks [2.7716102039510564]
本論文では,深層学習技術を用いた衛星画像の航空機検出に焦点をあてる。
本稿では,航空機検出にYOLO深層学習フレームワークを用いた。
改良されたモデルは小さい、回転する、および密集した目的がリアルタイムの条件を満たす異なった未知のイメージのよい正確さそして性能を示します。
論文 参考訳(メタデータ) (2021-04-21T18:13:16Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。