論文の概要: Automatic Labelling for Low-Light Pedestrian Detection
- arxiv url: http://arxiv.org/abs/2507.02513v1
- Date: Thu, 03 Jul 2025 10:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.173349
- Title: Automatic Labelling for Low-Light Pedestrian Detection
- Title(参考訳): 低照度歩行者検出のための自動ラベリング
- Authors: Dimitrios Bouzoulas, Eerik Alamikkotervo, Risto Ojala,
- Abstract要約: 研究はKAISTデータセットを用いて行われた。
オブジェクト検出モデルは、生成されたオートラベルと地上の真理ラベルに基づいて訓練された。
その結果,mAP@50およびmAP@50-95の9例中6例において,生成ラベルでトレーニングしたモデルは,地中トラスラベルでトレーニングしたモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.44241702149260353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pedestrian detection in RGB images is a key task in pedestrian safety, as the most common sensor in autonomous vehicles and advanced driver assistance systems is the RGB camera. A challenge in RGB pedestrian detection, that does not appear to have large public datasets, is low-light conditions. As a solution, in this research, we propose an automated infrared-RGB labeling pipeline. The proposed pipeline consists of 1) Infrared detection, where a fine-tuned model for infrared pedestrian detection is used 2) Label transfer process from the infrared detections to their RGB counterparts 3) Training object detection models using the generated labels for low-light RGB pedestrian detection. The research was performed using the KAIST dataset. For the evaluation, object detection models were trained on the generated autolabels and ground truth labels. When compared on a previously unseen image sequence, the results showed that the models trained on generated labels outperformed the ones trained on ground-truth labels in 6 out of 9 cases for the mAP@50 and mAP@50-95 metrics. The source code for this research is available at https://github.com/BouzoulasDimitrios/IR-RGB-Automated-LowLight-Pedestrian-Labeling
- Abstract(参考訳): RGB画像における歩行者検出は歩行者の安全にとって重要な課題であり、自動運転車や先進運転支援システムにおいて最も一般的なセンサーはRGBカメラである。
大規模な公共データセットを持たないと思われるRGB歩行者検出の課題は、低照度条件である。
そこで本研究では,自動赤外線-RGBラベリングパイプラインを提案する。
提案されたパイプラインは、
1)赤外歩行者検出のための微調整モデルを用いた赤外線検出
2)赤外検出からRGB検出へのラベル転送プロセス
3) 低照度RGB歩行者検出用ラベルを用いた物体検出モデルの訓練
研究はKAISTデータセットを用いて行われた。
評価のために、オブジェクト検出モデルが生成されたオートラベルと地上の真理ラベルに基づいて訓練された。
その結果,mAP@50およびmAP@50-95の9例中6例において,生成ラベルでトレーニングしたモデルが,地中トラスラベルでトレーニングしたモデルよりも優れていたことがわかった。
この研究のソースコードはhttps://github.com/BouzoulasDimitrios/IR-RGB-Automated-LowLight-Pedestrian-Labelingで公開されている。
関連論文リスト
- Seeing Heat with Color -- RGB-Only Wildfire Temperature Inference from SAM-Guided Multimodal Distillation using Radiometric Ground Truth [5.343932820859596]
本稿では,RGB入力のみを用いた画素レベルの山火事温度予測とセグメンテーションのための新しいフレームワークSAM-TIFFを紹介する。
対のRGB-サーマル画像とラジオメトリックのTIFF地上真実を訓練したマルチモーダル教師ネットワークは、知識を単調なRGB学生ネットワークに蒸留し、熱センサレス推論を可能にする。
提案手法は,RGB UAVデータから画素あたりの温度レグレッションを初めて行い,最近のFLAME 3データセットに強い一般化を示すものである。
論文 参考訳(メタデータ) (2025-05-03T00:23:11Z) - HalluciDet: Hallucinating RGB Modality for Person Detection Through Privileged Information [12.376615603048279]
HalluciDetは、オブジェクト検出のためのIR-RGB画像変換モデルである。
我々は、画像翻訳とIRの微調整のための最先端手法に対する我々のアプローチを実証的に比較した。
論文 参考訳(メタデータ) (2023-10-07T03:00:33Z) - Edge-guided Multi-domain RGB-to-TIR image Translation for Training
Vision Tasks with Challenging Labels [12.701191873813583]
注釈付き熱赤外(TIR)画像データセットの不足は、TIR画像ベースのディープラーニングネットワークを妨害し、RGBと同等の性能を持つ。
本稿では,エッジ保存に着目したマルチドメインRGBからTIRへの変換モデルを提案する。
我々は、終点誤差を平均56.5%改善した深部TIR画像に基づく光フロー推定と物体検出の教師あり学習を可能にし、最高の物体検出mAPは23.9%とした。
論文 参考訳(メタデータ) (2023-01-30T06:44:38Z) - Translation, Scale and Rotation: Cross-Modal Alignment Meets
RGB-Infrared Vehicle Detection [10.460296317901662]
空中RGB-IR画像における検出は, クロスモーダルな不整合問題に悩まされている。
本稿では,TSRA (Translation-Scale-Rotation Alignment) モジュールを提案する。
TSRAモジュールに基づく2ストリーム特徴アライメント検出器(TSFADet)は、空中画像におけるRGB-IRオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2022-09-28T03:06:18Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional
Variational Autoencoders [81.5490760424213]
データラベリングプロセスから学習することで、RGB-Dサリエンシ検出に不確実性を利用するための第1のフレームワーク(UCNet)を提案する。
そこで本研究では,サリエンシデータラベリングにヒントを得て,確率的RGB-Dサリエンシ検出ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-13T04:12:59Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。