論文の概要: Driver Behavior Extraction from Videos in Naturalistic Driving Datasets
with 3D ConvNets
- arxiv url: http://arxiv.org/abs/2011.14922v1
- Date: Mon, 30 Nov 2020 15:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 01:29:38.982826
- Title: Driver Behavior Extraction from Videos in Naturalistic Driving Datasets
with 3D ConvNets
- Title(参考訳): 3D ConvNet を用いた動画像からの運転行動抽出
- Authors: Hanwen Miao, Shengan Zhang, Carol Flannagan
- Abstract要約: ビデオから携帯電話関連行動を自動的に抽出する3D ConvNetアルゴリズムを開発した。
抽出したチャンクの人間によるレビューと合わせて、この手法は単にビデオを見ることよりも、携帯電話関連ドライバの振る舞いをはるかに効率的に見つけることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Naturalistic driving data (NDD) is an important source of information to
understand crash causation and human factors and to further develop crash
avoidance countermeasures. Videos recorded while driving are often included in
such datasets. While there is often a large amount of video data in NDD, only a
small portion of them can be annotated by human coders and used for research,
which underuses all video data. In this paper, we explored a computer vision
method to automatically extract the information we need from videos. More
specifically, we developed a 3D ConvNet algorithm to automatically extract
cell-phone-related behaviors from videos. The experiments show that our method
can extract chunks from videos, most of which (~79%) contain the automatically
labeled cell phone behaviors. In conjunction with human review of the extracted
chunks, this approach can find cell-phone-related driver behaviors much more
efficiently than simply viewing video.
- Abstract(参考訳): 自然主義運転データ(NDD)は、衝突因果関係と人的要因を理解し、さらに事故回避対策を開発するために重要な情報源である。
運転中に記録されたビデオは、しばしばそのようなデータセットに含まれる。
nddには大量のビデオデータがあることが多いが、そのごく一部だけが人間のコードによって注釈付けされ、研究に利用され、すべてのビデオデータを過小評価している。
本稿では,ビデオから必要な情報を自動的に抽出するコンピュータビジョン手法について検討する。
具体的には,ビデオから携帯電話関連行動を自動的に抽出する3D ConvNetアルゴリズムを開発した。
実験の結果,提案手法はビデオからチャンクを抽出でき,そのほとんどは(約79%)自動ラベル付き携帯電話の動作を含むことがわかった。
抽出したチャンクの人間によるレビューと合わせて、ビデオを見ることよりも、携帯電話関連ドライバの振る舞いをより効率的に見つけることができる。
関連論文リスト
- Detection of Object Throwing Behavior in Surveillance Videos [8.841708075914353]
本稿では,ディープラーニングを用いた監視ビデオにおける投球行動検出手法を提案する。
Smart Cityプロジェクトのユースケースに対処するために、私たちはまず、新しいパブリックな"Throwing Action"データセットを生成します。
UCF-CrimeおよびThrowing-Actionデータセットにおける異常検出のための特徴抽出器の性能の比較を行った。
論文 参考訳(メタデータ) (2024-03-11T09:53:19Z) - Learning to Identify Critical States for Reinforcement Learning from
Videos [55.75825780842156]
優れたポリシに関するアルゴリズム情報は、実行されたアクションに関する明示的な情報を持たないオフラインデータから抽出することができる。
例えば、人間やロボットのビデオは、アクションシーケンスに対する報酬に関する暗黙の情報を多く伝達することができる。
このようなビデオを見て利益を得たいDRLマシンは、まず、関連する状態/アクション/リワードを識別し、認識するために、自分で学習する必要がある。
論文 参考訳(メタデータ) (2023-08-15T14:21:24Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - A new Video Synopsis Based Approach Using Stereo Camera [0.5801044612920815]
物体に基づく教師なし学習を用いた新しい異常検出法を開発した。
この方法を用いて、映像データを画素として処理し、その結果をビデオセグメントとして生成する。
私たちが開発したモデルは、単眼カメラとデュアルカメラシステムで別々にテストされ、検証されている。
論文 参考訳(メタデータ) (2021-06-23T12:57:47Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Less is More: ClipBERT for Video-and-Language Learning via Sparse
Sampling [98.41300980759577]
ビデオと言語の学習に対する標準的なアプローチは、オフラインで抽出された高密度ビデオ機能から学習するニューラルネットワークを規定する。
本稿では,ビデオ・言語タスクに対して,手頃なエンドツーエンド学習を可能にする汎用フレームワークClipBERTを提案する。
6つのデータセットにおけるテキスト・ビデオ検索とビデオ質問応答の実験は、ClipBERTが既存の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-02-11T18:50:16Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - DriftNet: Aggressive Driving Behavior Classification using 3D
EfficientNet Architecture [1.8734449181723827]
アグレッシブ・ドリフト(Aggressive driving, 自動車のドリフト)は、人間の安全と生命を重大な危険に晒す危険な行動である。
ディープラーニングの最近の技術は、異なる文脈における異常検出のための新しいアプローチを提案した。
本稿では,アグレッシブな運転行動の検出に応用した新しい異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-18T08:36:04Z) - Vehicle-Human Interactive Behaviors in Emergency: Data Extraction from
Traffic Accident Videos [0.0]
現在、緊急時の車両と人間の対話行動を研究するには、ほとんど利用できない実際の緊急状況において、大量のデータセットが必要である。
本稿では,実際の事故映像から対話行動データ(車と人間の軌跡)を抽出する,しかし便利な方法を提案する。
リアルタイムの事故ビデオからデータを抽出する主な課題は、記録カメラが校正されておらず、監視の角度が不明であるという事実にある。
論文 参考訳(メタデータ) (2020-03-02T22:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。