論文の概要: Enhancing Surveillance Camera FOV Quality via Semantic Line Detection
and Classification with Deep Hough Transform
- arxiv url: http://arxiv.org/abs/2401.09515v1
- Date: Wed, 17 Jan 2024 15:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:58:45.993380
- Title: Enhancing Surveillance Camera FOV Quality via Semantic Line Detection
and Classification with Deep Hough Transform
- Title(参考訳): ディープハフ変換による意味線検出と分類による監視カメラのfov品質の向上
- Authors: Andrew C. Freeman, Wenjing Shi, Bin Hwang
- Abstract要約: 本稿では,意味線の検出と分類を,深いHough変換とともに活用し,意味線を識別する革新的な手法を提案する。
提案手法は, 一般のEgoCartデータセット上での有効F1スコア0.729と, ラインプレースメント指標の顕著な中央値スコアとを併用する。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of recorded videos and images is significantly influenced by the
camera's field of view (FOV). In critical applications like surveillance
systems and self-driving cars, an inadequate FOV can give rise to severe safety
and security concerns, including car accidents and thefts due to the failure to
detect individuals and objects. The conventional methods for establishing the
correct FOV heavily rely on human judgment and lack automated mechanisms to
assess video and image quality based on FOV. In this paper, we introduce an
innovative approach that harnesses semantic line detection and classification
alongside deep Hough transform to identify semantic lines, thus ensuring a
suitable FOV by understanding 3D view through parallel lines. Our approach
yields an effective F1 score of 0.729 on the public EgoCart dataset, coupled
with a notably high median score in the line placement metric. We illustrate
that our method offers a straightforward means of assessing the quality of the
camera's field of view, achieving a classification accuracy of 83.8\%. This
metric can serve as a proxy for evaluating the potential performance of video
and image quality applications.
- Abstract(参考訳): 録画されたビデオや画像の品質は、カメラの視野(fov)の影響を強く受けている。
監視システムや自動運転車のような重要なアプリケーションでは、不適切なFOVは、個人や物体を検知できないために自動車事故や盗難など、深刻な安全とセキュリティ上の懸念を引き起こす可能性がある。
従来のFOVの確立方法は人間の判断に大きく依存しており、FOVに基づいて映像や画質を評価するための自動メカニズムが欠如している。
本稿では,意味線の検出と分類をディープハフ変換と併用して意味線を識別し,並列線による3次元視の理解により適切なfovを実現する革新的な手法を提案する。
提案手法は, 一般のEgoCartデータセット上での有効F1スコア0.729と, ラインプレースメント指標の顕著な中央値スコアとを併用する。
本手法は,カメラの視野の質を簡易に評価し,83.8\%の分類精度が得られることを示す。
このメトリックは、ビデオおよび画質アプリケーションの潜在的なパフォーマンスを評価するためのプロキシとして機能する。
関連論文リスト
- CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - BEVHeight++: Toward Robust Visual Centric 3D Object Detection [32.08994153441449]
視覚中心の鳥の視線検出法は、路面カメラでは性能が劣る。
この問題に対処するために,BEVHeight++と呼ばれるシンプルで効果的なアプローチを提案する。
高さと深さの両方の符号化手法を取り入れることで、2次元からBEV空間へのより正確で頑健な投影を実現する。
論文 参考訳(メタデータ) (2023-09-28T05:38:32Z) - BEVHeight: A Robust Framework for Vision-based Roadside 3D Object
Detection [27.921256216924384]
視覚中心の鳥の視線検出法は、路面カメラでは性能が劣る。
この問題に対処するために,BEVHeightと呼ばれるシンプルで効果的なアプローチを提案する。
我々の手法は従来の視覚中心の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2023-03-15T10:18:53Z) - Evaluating Point Cloud from Moving Camera Videos: A No-Reference Metric [58.309735075960745]
本稿では,ビデオ品質評価(VQA)手法を用いて,ポイントクラウド品質評価(PCQA)タスクの処理方法について検討する。
捉えたビデオは、いくつかの円形の経路を通して、点雲の周りでカメラを回転させて生成する。
トレーニング可能な2D-CNNモデルと事前学習された3D-CNNモデルを用いて、選択したキーフレームとビデオクリップから空間的・時間的品質認識特徴を抽出する。
論文 参考訳(メタデータ) (2022-08-30T08:59:41Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Blind VQA on 360{\deg} Video via Progressively Learning from Pixels,
Frames and Video [66.57045901742922]
360度ビデオにおけるブラインド視覚品質評価(BVQA)は,没入型マルチメディアシステムの最適化において重要な役割を担っている。
本稿では,球面映像品質に対する人間の知覚の進歩的パラダイムを考察する。
画素,フレーム,ビデオから段階的に学習することで,360度ビデオのための新しいBVQA手法(ProVQA)を提案する。
論文 参考訳(メタデータ) (2021-11-18T03:45:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。