論文の概要: Billboard in Focus: Estimating Driver Gaze Duration from a Single Image
- arxiv url: http://arxiv.org/abs/2601.07073v1
- Date: Sun, 11 Jan 2026 21:38:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.150881
- Title: Billboard in Focus: Estimating Driver Gaze Duration from a Single Image
- Title(参考訳): 1枚の画像からドライバーの視線を推定するビルボード
- Authors: Carlos Pizarroso, Zuzana Berger Haladová, Zuzana Černeková, Viktor Kocur,
- Abstract要約: 本研究では,ビルボード検出と運転者の視線時間推定のための完全自動パイプラインを提案する。
1)Mapillary VistasでトレーニングされたYOLOベースのオブジェクト検出モデルとBillboardLamacイメージの微調整の2段階からなるパイプラインを運用している。
我々は,個々のフレームを考慮した場合,BillboardLamac上で68.1%の精度が得られることを示す。
- 参考スコア(独自算出の注目度): 4.566497560968836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Roadside billboards represent a central element of outdoor advertising, yet their presence may contribute to driver distraction and accident risk. This study introduces a fully automated pipeline for billboard detection and driver gaze duration estimation, aiming to evaluate billboard relevance without reliance on manual annotations or eye-tracking devices. Our pipeline operates in two stages: (1) a YOLO-based object detection model trained on Mapillary Vistas and fine-tuned on BillboardLamac images achieved 94% mAP@50 in the billboard detection task (2) a classifier based on the detected bounding box positions and DINOv2 features. The proposed pipeline enables estimation of billboard driver gaze duration from individual frames. We show that our method is able to achieve 68.1% accuracy on BillboardLamac when considering individual frames. These results are further validated using images collected from Google Street View.
- Abstract(参考訳): 道路沿いの看板は屋外広告の中心的な要素であるが、その存在は運転者の気晴らしや事故の危険に寄与する可能性がある。
本研究は,手動のアノテーションや視線追跡装置に頼らずに,掲示板の有効性を評価することを目的とした,掲示板検出と運転者の視線時間推定のための完全自動パイプラインを提案する。
このパイプラインは,(1)Mapillary Vistasで訓練されたYOLOベースのオブジェクト検出モデル,およびBillboardLamac画像の微調整により,ビルボード検出タスクにおいて94%のmAP@50を達成した(2)検出された境界ボックス位置とDINOv2特徴に基づく分類器である。
提案したパイプラインは,個々のフレームから掲示板ドライバの視線期間を推定する。
我々は,個々のフレームを考慮した場合,BillboardLamac上で68.1%の精度が得られることを示す。
これらの結果は、Googleストリートビューから収集された画像を使ってさらに検証される。
関連論文リスト
- Spatial Retrieval Augmented Autonomous Driving [81.39665750557526]
既存の自動運転システムは、環境認識のためのセンサーに頼っている。
本稿では,オフラインで取得した地理画像を付加入力として導入する空間検索パラダイムを提案する。
この新しい自動運転パラダイムのさらなる研究のために、データセットキュレーションコード、データ、ベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2025-12-07T14:40:49Z) - A method for estimating roadway billboard salience [0.0]
本研究は,運転者の視点から撮影した画像における道路広告の重要性を考察する。
道路沿いの広告を検出するニューラルネットワークの有効性を評価し、YOLOv5とFaster R-CNNモデルに焦点を当てる。
本研究は,都市高速道路走行中に捉えた視線追跡セッションのデータベースを構築し,サリエンシモデルを評価する。
論文 参考訳(メタデータ) (2025-01-13T13:56:31Z) - Evaluating the Significance of Outdoor Advertising from Driver's
Perspective Using Computer Vision [1.6385815610837167]
運転者の視点で撮影したビデオにおいて,道路沿いの看板の重要性を評価するパイプラインを提案する。
我々は、視線追跡デバイスを装着して、事前に定義された経路を運転するドライバーが撮影した8つのビデオを含む、新しいBillboardLamacデータセットを収集し、注釈付けした。
YOLOv8検出器と組み合わせて様々な物体追跡手法を評価し,BillboardLamac上で38.5HOTAを達成できる最善のアプローチで広告広告を識別する。
論文 参考訳(メタデータ) (2023-11-13T15:14:53Z) - Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Repopulating Street Scenes [59.2621467759251]
そこで本稿では,歩行者や車両などの物体を配置・非人口化・再人口化することにより,街頭シーンの画像を自動的に再構成する枠組みを提案する。
この手法の応用例としては、画像の匿名化によるプライバシー向上、自律運転のような知覚タスクのためのデータ強化などがある。
論文 参考訳(メタデータ) (2021-03-30T09:04:46Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Hearing What You Cannot See: Acoustic Vehicle Detection Around Corners [5.4960756528016335]
このような車両が視界に入る前に、音で接近する車両を検知できることが示される。
我々は,屋根付マイクロホンアレイを備えた研究車両を装着し,このセンサで収集したデータを示す。
車両が視認前に接近している方向を分類するための新しい方法が提示される。
論文 参考訳(メタデータ) (2020-07-30T20:57:13Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。