論文の概要: Evaluating the Significance of Outdoor Advertising from Driver's
Perspective Using Computer Vision
- arxiv url: http://arxiv.org/abs/2311.07390v2
- Date: Mon, 26 Feb 2024 09:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 00:32:21.437096
- Title: Evaluating the Significance of Outdoor Advertising from Driver's
Perspective Using Computer Vision
- Title(参考訳): コンピュータビジョンを用いた運転者の視点からの屋外広告の意義評価
- Authors: Zuzana \v{C}ernekov\'a, Zuzana Berger Haladov\'a, J\'an \v{S}pirka,
Viktor Kocur
- Abstract要約: 運転者の視点で撮影したビデオにおいて,道路沿いの看板の重要性を評価するパイプラインを提案する。
我々は、視線追跡デバイスを装着して、事前に定義された経路を運転するドライバーが撮影した8つのビデオを含む、新しいBillboardLamacデータセットを収集し、注釈付けした。
YOLOv8検出器と組み合わせて様々な物体追跡手法を評価し,BillboardLamac上で38.5HOTAを達成できる最善のアプローチで広告広告を識別する。
- 参考スコア(独自算出の注目度): 1.6385815610837167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Outdoor advertising, such as roadside billboards, plays a significant role in
marketing campaigns but can also be a distraction for drivers, potentially
leading to accidents. In this study, we propose a pipeline for evaluating the
significance of roadside billboards in videos captured from a driver's
perspective. We have collected and annotated a new BillboardLamac dataset,
comprising eight videos captured by drivers driving through a predefined path
wearing eye-tracking devices. The dataset includes annotations of billboards,
including 154 unique IDs and 155 thousand bounding boxes, as well as eye
fixation data. We evaluate various object tracking methods in combination with
a YOLOv8 detector to identify billboard advertisements with the best approach
achieving 38.5 HOTA on BillboardLamac. Additionally, we train a random forest
classifier to classify billboards into three classes based on the length of
driver fixations achieving 75.8% test accuracy. An analysis of the trained
classifier reveals that the duration of billboard visibility, its saliency, and
size are the most influential features when assessing billboard significance.
- Abstract(参考訳): 路傍の看板のような屋外広告は、マーケティングキャンペーンで重要な役割を果たすが、ドライバーの気晴らしにもなり、事故に繋がる可能性がある。
本研究では,運転者の視点から撮影した映像における道路広告の意義を評価するパイプラインを提案する。
我々は、視線追跡デバイスを装着して、事前に定義された経路を運転するドライバーが撮影した8つのビデオを含む、新しいBillboardLamacデータセットを収集し、注釈付けした。
データセットには154のユニークなidと155万のバウンディングボックスを含むビルボードのアノテーションとアイフィケーションデータが含まれている。
YOLOv8検出器と組み合わせて様々な物体追跡手法を評価し,BillboardLamac上で38.5HOTAを達成できる最善のアプローチで広告広告を識別する。
さらに、ランダムな森林分類器を訓練し、75.8%の精度で運転者の固定時間に基づいて3つのクラスに分類する。
訓練された分類器の分析により, 看板の可視性, 満足度, サイズが, 看板の意義を評価する上で最も重要な特徴であることが判明した。
関連論文リスト
- MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - Patterns of Vehicle Lights: Addressing Complexities in Curation and
Annotation of Camera-Based Vehicle Light Datasets and Metrics [0.0]
本稿では、コンピュータビジョンにおける車両光の表現とその自律運転分野における様々なタスクへの応用について考察する。
車両の光検出から恩恵を受けることができる自動運転における3つの重要なタスクが特定される。
データ駆動モデルのトレーニングのための大規模なデータセットの収集と注釈付けの課題にも対処する。
論文 参考訳(メタデータ) (2023-07-26T21:48:14Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Real-Time And Robust 3D Object Detection with Roadside LiDARs [20.10416681832639]
道路沿いのLiDARにおける交通参加者をリアルタイムに検出できる3次元物体検出モデルを設計する。
我々のモデルは既存の3D検出器をベースラインとして使用し、精度を向上させる。
スマートシティのアプリケーションに使用できるLiDARベースの3D検出器に多大な貢献をしています。
論文 参考訳(メタデータ) (2022-07-11T21:33:42Z) - On Salience-Sensitive Sign Classification in Autonomous Vehicle Path
Planning: Experimental Explorations with a Novel Dataset [11.007092387379076]
本稿では,エゴ車両の目標に対して,サインが明確な意味を持つか否かを示すために,新しい特徴であるサインサリエンスを持つデータセットを提案する。
道路タイプ, 画像座標, 計画的な操作により, 刈り取った標識の畳み込みネットワークを用いて, 76%の精度でサインサリエンス特性を予測した。
論文 参考訳(メタデータ) (2021-12-02T02:45:30Z) - Repopulating Street Scenes [59.2621467759251]
そこで本稿では,歩行者や車両などの物体を配置・非人口化・再人口化することにより,街頭シーンの画像を自動的に再構成する枠組みを提案する。
この手法の応用例としては、画像の匿名化によるプライバシー向上、自律運転のような知覚タスクのためのデータ強化などがある。
論文 参考訳(メタデータ) (2021-03-30T09:04:46Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Universal Embeddings for Spatio-Temporal Tagging of Self-Driving Logs [72.67604044776662]
我々は、生のセンサデータから、自動運転シーンの時間的タグ付けの問題に取り組む。
提案手法では,全てのタグに対する普遍的な埋め込みを学習し,多くの属性を効率的にタグ付けし,限られたデータで新しい属性を高速に学習する。
論文 参考訳(メタデータ) (2020-11-12T02:18:16Z) - Probabilistic Multi-modal Trajectory Prediction with Lane Attention for
Autonomous Vehicles [10.485790589381704]
軌道予測は自動運転車にとって不可欠である。
レーン表現のための新しいインスタンス認識表現を提案する。
提案したレーン表現とレーンアテンションモジュールは,広く使用されているエンコーダデコーダフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2020-07-06T07:57:23Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。