論文の概要: Synthetic Distracted Driving (SynDD2) dataset for analyzing distracted
behaviors and various gaze zones of a driver
- arxiv url: http://arxiv.org/abs/2204.08096v3
- Date: Mon, 10 Apr 2023 07:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 00:02:42.917443
- Title: Synthetic Distracted Driving (SynDD2) dataset for analyzing distracted
behaviors and various gaze zones of a driver
- Title(参考訳): 運転者の気晴らし行動解析のための合成気晴らし運転(syndd2)データセット
- Authors: Mohammed Shaiqur Rahman, Jiyang Wang, Senem Velipasalar Gursoy, David
Anastasiu, Shuo Wang, Anuj Sharma
- Abstract要約: データセットには2つのアクティビティタイプが含まれている。
研究者はこのデータセットを使用して、機械学習アルゴリズムのパフォーマンスを評価し、さまざまな注意をそらす活動やドライバーの視線ゾーンを分類することができる。
- 参考スコア(独自算出の注目度): 7.182665114840125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article presents a synthetic distracted driving (SynDD2 - a continuum of
SynDD1) dataset for machine learning models to detect and analyze drivers'
various distracted behavior and different gaze zones. We collected the data in
a stationary vehicle using three in-vehicle cameras positioned at locations: on
the dashboard, near the rearview mirror, and on the top right-side window
corner. The dataset contains two activity types: distracted activities and gaze
zones for each participant, and each activity type has two sets: without
appearance blocks and with appearance blocks such as wearing a hat or
sunglasses. The order and duration of each activity for each participant are
random. In addition, the dataset contains manual annotations for each activity,
having its start and end time annotated. Researchers could use this dataset to
evaluate the performance of machine learning algorithms to classify various
distracting activities and gaze zones of drivers.
- Abstract(参考訳): 本稿では、機械学習モデルを用いた運転者の様々な注意散らし行動と異なる視線領域の検出と解析を行うための合成的注意散らし駆動(SynDD2 - SynDD1)データセットを提案する。
3台の車載カメラをダッシュボード、リアビューミラー付近、右上ウィンドウコーナーの3箇所に配置し、静止車内でデータを収集した。
データセットには2つのアクティビティタイプが含まれており、各アクティビティタイプには、外見ブロックのない2つのセットと、帽子やサングラスなどの外見ブロックがある。
各参加者に対する各アクティビティの順序と持続時間はランダムである。
さらにデータセットには、各アクティビティに対する手動アノテーションが含まれており、開始時と終了時をアノテートしている。
研究者はこのデータセットを使って、機械学習アルゴリズムのパフォーマンスを評価し、様々な注意をそらすアクティビティとドライバーの視線ゾーンを分類できる。
関連論文リスト
- Data Limitations for Modeling Top-Down Effects on Drivers' Attention [12.246649738388388]
運転は視覚運動のタスクであり、つまり、ドライバーが見ているものと何をするかの間には関連がある。
ドライバーの視線の一部のモデルは、ドライバーの行動によるトップダウン効果を考慮に入れている。
大多数は人間の視線と運転映像のボトムアップ相関しか学ばない。
論文 参考訳(メタデータ) (2024-04-12T18:23:00Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - TICaM: A Time-of-flight In-car Cabin Monitoring Dataset [10.845284058153837]
TICaMは、単一の広角深度カメラを使用して車両内部の監視のための飛行中キャビンモニタリングデータセットです。
運転中の動作の総括的リストを記録し,マルチモーダルなラベル付き画像を提供する。
実際の記録に加えて,同種の画像とアノテーションを用いた車内キャビン画像の合成データセットを提供する。
論文 参考訳(メタデータ) (2021-03-22T10:48:45Z) - LiveMap: Real-Time Dynamic Map in Automotive Edge Computing [14.195521569220448]
LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
論文 参考訳(メタデータ) (2020-12-16T15:00:49Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Universal Embeddings for Spatio-Temporal Tagging of Self-Driving Logs [72.67604044776662]
我々は、生のセンサデータから、自動運転シーンの時間的タグ付けの問題に取り組む。
提案手法では,全てのタグに対する普遍的な埋め込みを学習し,多くの属性を効率的にタグ付けし,限られたデータで新しい属性を高速に学習する。
論文 参考訳(メタデータ) (2020-11-12T02:18:16Z) - IDE-Net: Interactive Driving Event and Pattern Extraction from Human
Data [35.473428772961235]
本稿では,対話型イベントとパターン抽出ネットワーク(IDE-Net)を提案し,対話型イベントとパターンを自動的に抽出する。
IDE-Netは、車両軌道からイベントやパターンを直接抽出するディープラーニングフレームワークである。
インタラクションの3つの解釈可能なパターンを見つけ、ドライバーの行動表現、モデリング、理解のための洞察をもたらす。
論文 参考訳(メタデータ) (2020-11-04T16:56:12Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - Object Detection and Tracking Algorithms for Vehicle Counting: A
Comparative Analysis [3.093890460224435]
著者は、さまざまな種類の車両を検出し、追跡するために、アートオブジェクトの検出と追跡アルゴリズムのいくつかの状態をデプロイする。
モデルの組み合わせを検証し、手動で数えた9時間以上の交通映像データと比較する。
その結果,CentralNet,Deep SORT,Deuterron2,Deep SORT,YOLOv4,Deep SORTの組み合わせは全車種で最高の総計数率を示した。
論文 参考訳(メタデータ) (2020-07-31T17:49:27Z) - MVLidarNet: Real-Time Multi-Class Scene Understanding for Autonomous
Driving Using Multiple Views [60.538802124885414]
マルチビューLidarNet(MVLidarNet)は,多層物体検出とドライビング空間分割のための2段階のディープニューラルネットワークである。
MVLidarNetは、単一のLiDARスキャンを入力として、乾燥可能な空間を同時に決定しながら、オブジェクトを検出し、分類することができる。
我々は、KITTIとはるかに大きな内部データセットの両方で結果を示し、その方法が桁違いにスケールできることを実証する。
論文 参考訳(メタデータ) (2020-06-09T21:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。