論文の概要: Dataset for Analyzing Various Gaze Zones and Distracted Behaviors of a
Driver
- arxiv url: http://arxiv.org/abs/2204.08096v1
- Date: Sun, 17 Apr 2022 22:31:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 00:59:19.372034
- Title: Dataset for Analyzing Various Gaze Zones and Distracted Behaviors of a
Driver
- Title(参考訳): ドライバの様々な視線領域と気晴らし行動を分析するデータセット
- Authors: Mohammed Shaiqur Rahman, Archana Venkatachalapathy, Anuj Sharma,
Jiyang Wang, Senem Velipasalar Gursoy, David Anastasiu, Shuo Wang
- Abstract要約: 本稿では、ドライバーの様々な注意をそらした行動と異なる視線ゾーンを検出し、分析するための機械学習モデルのためのデータセットを提案する。
3台の車載カメラをダッシュボード、リアビューミラー付近、右上ウィンドウコーナーの3箇所に配置し、静止車内でデータを収集した。
データセットは2つのアクティビティタイプを含む: 中断されたアクティビティと、各参加者の視線ゾーンと、各アクティビティタイプは、外観ブロックなしで、帽子やサングラスをかけたような外観ブロックを備えた2つのセットを持つ。
- 参考スコア(独自算出の注目度): 6.77855593538717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article presents a synthetic dataset for machine learning models to
detect and analyze drivers' various distracted behavior and different gaze
zones. We collected the data in a stationary vehicle using three in-vehicle
cameras positioned at locations: on the dashboard, near the rearview mirror,
and on the top right-side window corner. The dataset contains two activity
types: distracted activities, and gaze zones for each participant and each
activity type has two sets: without appearance blocks and with appearance
blocks such as wearing a hat or sunglasses. The order and duration of each
activity for each participant are random. In addition, the dataset contains
manual annotations for each activity, having its start and end time annotated.
Researchers could use this dataset to evaluate the performance of machine
learning algorithms for the classification of various distracting activities
and gaze zones of drivers.
- Abstract(参考訳): 本稿では,運転者の気を散らす行動や視線ゾーンを検出・解析する機械学習モデルのための合成データセットを提案する。
3台の車載カメラをダッシュボード、リアビューミラー付近、右上ウィンドウコーナーの3箇所に配置し、静止車内でデータを収集した。
データセットは2つのアクティビティタイプを含む: 中断されたアクティビティと、各参加者の視線ゾーンと、各アクティビティタイプは、外観ブロックなしで、帽子やサングラスをかけたような外観ブロックを備えた2つのセットを持つ。
各参加者に対する各アクティビティの順序と持続時間はランダムである。
さらにデータセットには、各アクティビティに対する手動アノテーションが含まれており、開始時と終了時をアノテートしている。
研究者はこのデータセットを使って、ドライバーの様々な注意をそらすアクティビティと視線ゾーンを分類するための機械学習アルゴリズムのパフォーマンスを評価することができた。
関連論文リスト
- Data Limitations for Modeling Top-Down Effects on Drivers' Attention [12.246649738388388]
運転は視覚運動のタスクであり、つまり、ドライバーが見ているものと何をするかの間には関連がある。
ドライバーの視線の一部のモデルは、ドライバーの行動によるトップダウン効果を考慮に入れている。
大多数は人間の視線と運転映像のボトムアップ相関しか学ばない。
論文 参考訳(メタデータ) (2024-04-12T18:23:00Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - TICaM: A Time-of-flight In-car Cabin Monitoring Dataset [10.845284058153837]
TICaMは、単一の広角深度カメラを使用して車両内部の監視のための飛行中キャビンモニタリングデータセットです。
運転中の動作の総括的リストを記録し,マルチモーダルなラベル付き画像を提供する。
実際の記録に加えて,同種の画像とアノテーションを用いた車内キャビン画像の合成データセットを提供する。
論文 参考訳(メタデータ) (2021-03-22T10:48:45Z) - LiveMap: Real-Time Dynamic Map in Automotive Edge Computing [14.195521569220448]
LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
論文 参考訳(メタデータ) (2020-12-16T15:00:49Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Universal Embeddings for Spatio-Temporal Tagging of Self-Driving Logs [72.67604044776662]
我々は、生のセンサデータから、自動運転シーンの時間的タグ付けの問題に取り組む。
提案手法では,全てのタグに対する普遍的な埋め込みを学習し,多くの属性を効率的にタグ付けし,限られたデータで新しい属性を高速に学習する。
論文 参考訳(メタデータ) (2020-11-12T02:18:16Z) - IDE-Net: Interactive Driving Event and Pattern Extraction from Human
Data [35.473428772961235]
本稿では,対話型イベントとパターン抽出ネットワーク(IDE-Net)を提案し,対話型イベントとパターンを自動的に抽出する。
IDE-Netは、車両軌道からイベントやパターンを直接抽出するディープラーニングフレームワークである。
インタラクションの3つの解釈可能なパターンを見つけ、ドライバーの行動表現、モデリング、理解のための洞察をもたらす。
論文 参考訳(メタデータ) (2020-11-04T16:56:12Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - Object Detection and Tracking Algorithms for Vehicle Counting: A
Comparative Analysis [3.093890460224435]
著者は、さまざまな種類の車両を検出し、追跡するために、アートオブジェクトの検出と追跡アルゴリズムのいくつかの状態をデプロイする。
モデルの組み合わせを検証し、手動で数えた9時間以上の交通映像データと比較する。
その結果,CentralNet,Deep SORT,Deuterron2,Deep SORT,YOLOv4,Deep SORTの組み合わせは全車種で最高の総計数率を示した。
論文 参考訳(メタデータ) (2020-07-31T17:49:27Z) - MVLidarNet: Real-Time Multi-Class Scene Understanding for Autonomous
Driving Using Multiple Views [60.538802124885414]
マルチビューLidarNet(MVLidarNet)は,多層物体検出とドライビング空間分割のための2段階のディープニューラルネットワークである。
MVLidarNetは、単一のLiDARスキャンを入力として、乾燥可能な空間を同時に決定しながら、オブジェクトを検出し、分類することができる。
我々は、KITTIとはるかに大きな内部データセットの両方で結果を示し、その方法が桁違いにスケールできることを実証する。
論文 参考訳(メタデータ) (2020-06-09T21:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。