論文の概要: Driving Policy Prediction based on Deep Learning Models
- arxiv url: http://arxiv.org/abs/2307.11058v1
- Date: Thu, 20 Jul 2023 17:38:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 11:49:19.195158
- Title: Driving Policy Prediction based on Deep Learning Models
- Title(参考訳): ディープラーニングモデルに基づく運転政策予測
- Authors: Fuxiao Liu
- Abstract要約: 我々は,通常のカメラからの映像フレームの視覚的特徴と,クラウドポイントスキャナからの深度情報を組み合わせたエンドツーエンドシステムを実装した。
我々は,予測結果と実世界の経験者による標準的な行動を比較することで,システムの安全性を検証した。
- 参考スコア(独自算出の注目度): 0.190365714903665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this project, we implemented an end-to-end system that takes in combined
visual features of video frames from a normal camera and depth information from
a cloud points scanner, and predicts driving policies (vehicle speed and
steering angle). We verified the safety of our system by comparing the
predicted results with standard behaviors by real-world experienced drivers.
Our test results show that the predictions can be considered as accurate in at
lease half of the testing cases (50% 80%, depending on the model), and using
combined features improved the performance in most cases than using video
frames only.
- Abstract(参考訳): 本研究では,通常のカメラからの映像フレームの視覚的特徴とクラウドポイントスキャナからの深度情報を組み合わせたエンドツーエンドシステムを構築し,運転方針(車両速度と操舵角度)を予測する。
実世界経験者による予測結果と標準行動を比較することにより,システムの安全性を検証した。
実験結果から,テストケースの半数(モデルによっては50%80%)で精度の高い予測が可能であり,複合機能の利用はビデオフレームのみを使用するよりも,ほとんどのケースで性能が向上した。
関連論文リスト
- Multi-Attention Fusion Drowsy Driving Detection Model [1.2043574473965317]
我々は,Multi-Attention Fusion Drowsy Driving Detection Model (MAF)と呼ばれる新しいアプローチを導入する。
提案モデルでは96.8%の運転覚醒検出精度が得られた。
論文 参考訳(メタデータ) (2023-12-28T14:53:32Z) - Robust Self-Supervised Extrinsic Self-Calibration [25.727912226753247]
マルチカメラによるビデオからの単眼深度推定は、環境を判断する上で有望な方法である。
本稿では,自己教師型単眼深度と自我運動学習の原理を基礎として,外因性キャリブレーションの新たな手法を提案する。
論文 参考訳(メタデータ) (2023-08-04T06:20:20Z) - Visual Saliency Detection in Advanced Driver Assistance Systems [7.455416595124159]
本稿では,ドライバの眠気検知システムと,サリエンシに基づく情景理解パイプラインを組み合わせたインテリジェントシステムを提案する。
我々は、運転者を監視するために、ハンドルに埋め込まれた革新的なバイオセンサーを使用している。
収集したPSG時系列を分類するために、専用の1D時間深部畳み込みネットワークが考案された。
論文 参考訳(メタデータ) (2023-07-26T15:41:54Z) - Non-Intrusive Driver Behavior Characterization From Road-Side Cameras [1.9659095632676098]
本稿では,ITS システムの路面カメラのみを用いて車体挙動を特徴付ける概念の証明を示す。
また,外部映像分析に基づく運転者の分類は,車両のキャラクタリゼーションの精度の1~2%以内の精度が得られることを示した。
論文 参考訳(メタデータ) (2023-02-25T17:22:49Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates [23.449073032842076]
運転観察モデルは完璧な条件下で展開されることは滅多にない。
生のニューラルネットワークベースのアプローチは、予測品質を大幅に過大評価する傾向がある。
本稿では,CARing(Callibrated Action Recognition with Input Guidance)という,ビデオ表現による信頼度向上学習のためのニューラルネットワークを活用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T12:43:58Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。