論文の概要: Non-Intrusive Driver Behavior Characterization From Road-Side Cameras
- arxiv url: http://arxiv.org/abs/2302.13125v1
- Date: Sat, 25 Feb 2023 17:22:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 18:48:42.448888
- Title: Non-Intrusive Driver Behavior Characterization From Road-Side Cameras
- Title(参考訳): 路面カメラによる非侵入運転行動のキャラクタリゼーション
- Authors: Pavana Pradeep Kumar, Krishna Kant, Amitangshu Pal
- Abstract要約: 本稿では,ITS システムの路面カメラのみを用いて車体挙動を特徴付ける概念の証明を示す。
また,外部映像分析に基づく運転者の分類は,車両のキャラクタリゼーションの精度の1~2%以内の精度が得られることを示した。
- 参考スコア(独自算出の注目度): 1.9659095632676098
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper, we demonstrate a proof of concept for characterizing vehicular
behavior using only the roadside cameras of the ITS system. The essential
advantage of this method is that it can be implemented in the roadside
infrastructure transparently and inexpensively and can have a global view of
each vehicle's behavior without any involvement of or awareness by the
individual vehicles or drivers. By using a setup that includes programmatically
controlled robot cars (to simulate different types of vehicular behaviors) and
an external video camera set up to capture and analyze the vehicular behavior,
we show that the driver classification based on the external video analytics
yields accuracies that are within 1-2\% of the accuracies of direct
vehicle-based characterization. We also show that the residual errors primarily
relate to gaps in correct object identification and tracking and thus can be
further reduced with a more sophisticated setup. The characterization can be
used to enhance both the safety and performance of the traffic flow,
particularly in the mixed manual and automated vehicle scenarios that are
expected to be common soon.
- Abstract(参考訳): 本論文では,ITS システムの路面カメラのみを用いて車体挙動を特徴付ける概念の実証を行う。
この方法の本質的な利点は、道路インフラストラクチャーに透過的かつ安価に実装でき、個々の車両や運転者の関与や意識を伴わずに、各車両の挙動をグローバルに把握できることである。
プログラム的に制御されたロボット車(異なる種類の車両の挙動をシミュレートする)と、車両の挙動を捉え解析するための外部ビデオカメラを備えた装置を用いて、外部ビデオ分析に基づく運転者の分類が、直接車両による特徴付けの精度の1~2倍以内の精度をもたらすことを示す。
また,残差誤差は主にオブジェクト識別と追跡のギャップに関係しており,より洗練された設定でさらに低減できることを示す。
キャラクタリゼーションは、交通の流れの安全性と性能、特に近日中に一般的になると思われる手動と自動車両の混合シナリオの両方を向上させるのに使うことができる。
関連論文リスト
- BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction [4.328789276903559]
軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
論文 参考訳(メタデータ) (2023-12-20T15:02:37Z) - Anticipating Driving Behavior through Deep Learning-Based Policy
Prediction [66.344923925939]
我々は、通常のカメラで捉えたビデオフレームから得られる統合的な視覚特徴と、ポイント・クラウド・スキャナーから得られた奥行きの詳細を処理できるシステムを開発した。
このシステムは、車両の速度と操舵角度の両方を含む運転行動を予測するように設計されている。
評価の結果,テストシナリオの少なくとも半分において,予測値が有意な精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-20T17:38:55Z) - Control-Aware Prediction Objectives for Autonomous Driving [78.19515972466063]
本研究では,制御に対する予測の下流効果を評価するための制御認識予測目標(CAPOs)を提案する。
本稿では,エージェント間の注意モデルを用いた重み付けと,予測軌跡を接地真実軌跡に交換する際の制御変動に基づく重み付けの2つの方法を提案する。
論文 参考訳(メタデータ) (2022-04-28T07:37:21Z) - Audiovisual Affect Assessment and Autonomous Automobiles: Applications [0.0]
このコントリビューションは、課題を予測し、ロードコンテキスト上のマルチモーダルな"オーディオプラスx"におけるモデリングに影響を与える潜在的な方法を提供することを目的としています。
技術的には、乗用車内の個人を全面的にモデル化し、信頼性の高いダイアリゼーションを行う。
結論として、自動感情分析は、最初に選択されたユースケースにおける自動運転車の適用可能性の点まで成熟した。
論文 参考訳(メタデータ) (2022-03-14T20:39:02Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Automated Object Behavioral Feature Extraction for Potential Risk
Analysis based on Video Sensor [6.291501119156943]
歩行者は道路、特に標識のない横断歩道で死亡や重傷を負う危険にさらされている。
本研究では,道路上に展開された映像センサから物体の行動特徴を効果的に抽出するシステムを提案する。
本研究は、スマートシティーに実用的なデータを提供するためのコネクテッドビデオセンサネットワークの可能性を示す。
論文 参考訳(メタデータ) (2021-07-08T01:11:31Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Video action recognition for lane-change classification and prediction
of surrounding vehicles [12.127050913280925]
レーン変更認識と予測タスクは、ビデオアクション認識問題として提示される。
コンテキストと観測地平線がパフォーマンスに与える影響を調査し、異なる予測地平線を分析します。
その結果,これらの手法が将来の車両の車線変化を予測できる可能性を明らかにした。
論文 参考訳(メタデータ) (2021-01-13T13:25:00Z) - Two-Stream Networks for Lane-Change Prediction of Surrounding Vehicles [8.828423067460644]
高速道路のシナリオでは、人間のドライバーは視覚的手がかりのみを使用して車両を取り巻く早期の切り込みと切り抜きの操作を予想する。
周囲車両の車線変化認識と予測に対処するため,ビデオカメラからの視覚的手がかりを積み重ねることで,行動認識・予測問題としてこの問題を提起する。
2ストリーム畳み込みネットワークと乗算器ネットワークという2つのビデオアクション認識アプローチが分析されている。
論文 参考訳(メタデータ) (2020-08-25T07:59:15Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。