論文の概要: Low-Light Image Enhancement Framework for Improved Object Detection in Fisheye Lens Datasets
- arxiv url: http://arxiv.org/abs/2404.10078v1
- Date: Mon, 15 Apr 2024 18:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 20:48:29.959519
- Title: Low-Light Image Enhancement Framework for Improved Object Detection in Fisheye Lens Datasets
- Title(参考訳): 魚眼レンズデータセットにおける物体検出改善のための低照度画像強調フレームワーク
- Authors: Dai Quoc Tran, Armstrong Aboah, Yuntae Jeon, Maged Shoman, Minsoo Park, Seunghee Park,
- Abstract要約: 本研究は,魚眼レンズカメラを用いた都市交通監視システムの進化的課題について考察する。
フィッシュアイレンズは、1つのフレームで広角と全方位のカバーを提供し、変換性のあるソリューションとなる。
これらの課題に触発された本研究では,ランズフォーマーに基づく画像強調フレームワークとアンサンブル学習技術を組み合わせた新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 4.170227455727819
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study addresses the evolving challenges in urban traffic monitoring detection systems based on fisheye lens cameras by proposing a framework that improves the efficacy and accuracy of these systems. In the context of urban infrastructure and transportation management, advanced traffic monitoring systems have become critical for managing the complexities of urbanization and increasing vehicle density. Traditional monitoring methods, which rely on static cameras with narrow fields of view, are ineffective in dynamic urban environments, necessitating the installation of multiple cameras, which raises costs. Fisheye lenses, which were recently introduced, provide wide and omnidirectional coverage in a single frame, making them a transformative solution. However, issues such as distorted views and blurriness arise, preventing accurate object detection on these images. Motivated by these challenges, this study proposes a novel approach that combines a ransformer-based image enhancement framework and ensemble learning technique to address these challenges and improve traffic monitoring accuracy, making significant contributions to the future of intelligent traffic management systems. Our proposed methodological framework won 5th place in the 2024 AI City Challenge, Track 4, with an F1 score of 0.5965 on experimental validation data. The experimental results demonstrate the effectiveness, efficiency, and robustness of the proposed system. Our code is publicly available at https://github.com/daitranskku/AIC2024-TRACK4-TEAM15.
- Abstract(参考訳): 本研究は,魚眼レンズカメラを用いた都市交通監視システムにおける課題を,これらのシステムの有効性と精度を向上させる枠組みを提案することによって解決するものである。
都市インフラと交通管理の文脈において,交通監視の高度化は,都市化の複雑化と車両密度の増大に欠かせないものとなっている。
従来の監視方法は、視野が狭い静的カメラに依存しており、動的な都市環境では効果がなく、複数のカメラを設置する必要があるため、コストが上昇する。
最近導入されたフィッシュアイレンズは、1つのフレームで広角と全方位のカバーを提供し、変換可能なソリューションとなっている。
しかし、歪んだビューやぼやけなどの問題が発生し、これらの画像の正確な物体検出を妨げている。
本研究は,これらの課題に対処し,交通監視の精度を向上させるために,ランズフォーマに基づく画像強調フレームワークとアンサンブル学習技術を組み合わせた新しいアプローチを提案する。
提案手法は2024年のAI City Challenge, Track 4で5位となり,F1スコアは0.5965であった。
実験結果は,提案システムの有効性,効率,堅牢性を示すものである。
私たちのコードはhttps://github.com/daitranskku/AIC2024-TRACK4-TEAM15で公開されています。
関連論文リスト
- Technique Report of CVPR 2024 PBDL Challenges [211.79824163599872]
物理に基づくビジョンは、画像から形状、反射率、光の分布、中性などのシーン特性を復元する過程を反転させることを目的としている。
深層学習は様々な視覚タスクに対して有望な改善を示しており、物理に基づく視覚と組み合わせることで、これらのアプローチは視覚システムの堅牢性と精度を高めることができる。
CVPR 2024ワークショップで行われたPBDL 2024チャレンジの結果を要約する。
論文 参考訳(メタデータ) (2024-06-15T21:44:17Z) - The RoboDrive Challenge: Drive Anytime Anywhere in Any Condition [136.32656319458158]
2024年のRoboDrive Challengeは、駆動認識技術の発展を促進するために作られた。
今年の挑戦は5つの異なるトラックで構成され、11カ国の93の機関から140の登録チームが集まった。
競争は15の最高パフォーマンスのソリューションで頂点に達した。
論文 参考訳(メタデータ) (2024-05-14T17:59:57Z) - Real-Time Detection and Analysis of Vehicles and Pedestrians using Deep Learning [0.0]
現在の交通監視システムは、小さな物体や歩行者をリアルタイムで効果的に認識する上で大きな困難に直面している。
本研究は、車や人の正確なリアルタイム認識のための複雑な視覚入力を処理できる高度なディープラーニングフレームワークの作成と検証に重点を置いている。
YOLOv8 大型モデルは、特に歩行者認識において最も効果的で、精度と堅牢性が高いことが判明した。
論文 参考訳(メタデータ) (2024-04-11T18:42:14Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Detection of Micromobility Vehicles in Urban Traffic Videos [7.5867752610196915]
本研究では、単一フレームオブジェクト検出の精度と速度と、オブジェクト検出フレームワークが提供するよりリッチな機能を組み合わせた、適応型検出モデルを導入する。
この融合は、YOLOX検出能力に時間的視点をもたらし、都市移動パターンをよりよく理解することができる。
都市マイクロモビリティのシナリオをキュレートしたデータセットを用いて実験し、既存の最先端手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-02-28T17:31:39Z) - CityTrack: Improving City-Scale Multi-Camera Multi-Target Tracking by
Location-Aware Tracking and Box-Grained Matching [15.854610268846562]
Multi-Camera Multi-Target Tracking (MCMT)は、複数のカメラを同時に追跡するコンピュータビジョン技術である。
そこで我々は,都市交通シーンがもたらす課題を克服するために,CityTrackと呼ばれるMCMTフレームワークを提案する。
MCMTタスクにおいて,様々な高度な手法を取り入れた位置認識SCMTトラッカーを提案する。
論文 参考訳(メタデータ) (2023-07-06T03:25:37Z) - Self-supervised Interest Point Detection and Description for Fisheye and
Perspective Images [7.451395029642832]
キーポイント検出とマッチングは多くのコンピュータビジョンにおける基本的な課題である。
本研究では,画像取得に使用されるカメラの形状が原因で発生する場合に焦点をあてる。
我々は最先端のアプローチを構築し、関心点検出器と記述子ネットワークのトレーニングを可能にする自己監督的な手順を導出する。
論文 参考訳(メタデータ) (2023-06-02T22:39:33Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Unsupervised Vehicle Counting via Multiple Camera Domain Adaptation [9.730985797769764]
市民の生活の質と都市環境を改善するためには, 都市内の車両流のモニタリングが不可欠である。
画像のヒンジを大量の注釈付きデータにカウントする現在の技術は、新しいカメラがシステムに追加されるにつれて、都市規模へのスケーラビリティを損なう。
我々は,複数のカメラ領域を適応させてラベル付きデータが少ない画像に基づく車両密度推定器を設計するための新しい手法を提案し,議論する。
論文 参考訳(メタデータ) (2020-04-20T13:00:46Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。