論文の概要: Driving Policy Prediction based on Deep Learning Models
- arxiv url: http://arxiv.org/abs/2307.11058v1
- Date: Thu, 20 Jul 2023 17:38:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 11:49:19.195158
- Title: Driving Policy Prediction based on Deep Learning Models
- Title(参考訳): ディープラーニングモデルに基づく運転政策予測
- Authors: Fuxiao Liu
- Abstract要約: 我々は,通常のカメラからの映像フレームの視覚的特徴と,クラウドポイントスキャナからの深度情報を組み合わせたエンドツーエンドシステムを実装した。
我々は,予測結果と実世界の経験者による標準的な行動を比較することで,システムの安全性を検証した。
- 参考スコア(独自算出の注目度): 0.190365714903665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this project, we implemented an end-to-end system that takes in combined
visual features of video frames from a normal camera and depth information from
a cloud points scanner, and predicts driving policies (vehicle speed and
steering angle). We verified the safety of our system by comparing the
predicted results with standard behaviors by real-world experienced drivers.
Our test results show that the predictions can be considered as accurate in at
lease half of the testing cases (50% 80%, depending on the model), and using
combined features improved the performance in most cases than using video
frames only.
- Abstract(参考訳): 本研究では,通常のカメラからの映像フレームの視覚的特徴とクラウドポイントスキャナからの深度情報を組み合わせたエンドツーエンドシステムを構築し,運転方針(車両速度と操舵角度)を予測する。
実世界経験者による予測結果と標準行動を比較することにより,システムの安全性を検証した。
実験結果から,テストケースの半数(モデルによっては50%80%)で精度の高い予測が可能であり,複合機能の利用はビデオフレームのみを使用するよりも,ほとんどのケースで性能が向上した。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
コストのかかるラベルを必要とせずにエンドツーエンドの運転を改善するための,新しい自己管理手法を提案する。
フレームワーク textbfLAW は LAtent World モデルを用いて,予測エゴアクションと現在のフレームの潜在機能に基づいて,今後の潜在機能を予測する。
その結果,オープンループベンチマークとクローズループベンチマークの両方において,コストのかかるアノテーションを使わずに最先端のパフォーマンスを実現することができた。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - Valeo4Cast: A Modular Approach to End-to-End Forecasting [93.86257326005726]
我々のソリューションはArgoverse 2 end-to-end Forecasting Challengeで63.82 mAPfでランクインした。
私たちは、知覚から予測までエンドツーエンドのトレーニングを通じて、このタスクに取り組む現在のトレンドから離れ、代わりにモジュラーアプローチを使用します。
私たちは、昨年の優勝者より+17.1ポイント、今年の優勝者より+13.3ポイント、予測結果を+17.1ポイント上回る。
論文 参考訳(メタデータ) (2024-06-12T11:50:51Z) - Robust Self-Supervised Extrinsic Self-Calibration [25.727912226753247]
マルチカメラによるビデオからの単眼深度推定は、環境を判断する上で有望な方法である。
本稿では,自己教師型単眼深度と自我運動学習の原理を基礎として,外因性キャリブレーションの新たな手法を提案する。
論文 参考訳(メタデータ) (2023-08-04T06:20:20Z) - Visual Saliency Detection in Advanced Driver Assistance Systems [7.455416595124159]
本稿では,ドライバの眠気検知システムと,サリエンシに基づく情景理解パイプラインを組み合わせたインテリジェントシステムを提案する。
我々は、運転者を監視するために、ハンドルに埋め込まれた革新的なバイオセンサーを使用している。
収集したPSG時系列を分類するために、専用の1D時間深部畳み込みネットワークが考案された。
論文 参考訳(メタデータ) (2023-07-26T15:41:54Z) - Non-Intrusive Driver Behavior Characterization From Road-Side Cameras [1.9659095632676098]
本稿では,ITS システムの路面カメラのみを用いて車体挙動を特徴付ける概念の証明を示す。
また,外部映像分析に基づく運転者の分類は,車両のキャラクタリゼーションの精度の1~2%以内の精度が得られることを示した。
論文 参考訳(メタデータ) (2023-02-25T17:22:49Z) - Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates [23.449073032842076]
運転観察モデルは完璧な条件下で展開されることは滅多にない。
生のニューラルネットワークベースのアプローチは、予測品質を大幅に過大評価する傾向がある。
本稿では,CARing(Callibrated Action Recognition with Input Guidance)という,ビデオ表現による信頼度向上学習のためのニューラルネットワークを活用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T12:43:58Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。