論文の概要: Anticipating Driving Behavior through Deep Learning-Based Policy
Prediction
- arxiv url: http://arxiv.org/abs/2307.11058v2
- Date: Tue, 29 Aug 2023 04:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 17:48:58.611598
- Title: Anticipating Driving Behavior through Deep Learning-Based Policy
Prediction
- Title(参考訳): 深層学習に基づく政策予測による運転行動予測
- Authors: Fuxiao Liu
- Abstract要約: 我々は、通常のカメラで捉えたビデオフレームから得られる統合的な視覚特徴と、ポイント・クラウド・スキャナーから得られた奥行きの詳細を処理できるシステムを開発した。
このシステムは、車両の速度と操舵角度の両方を含む運転行動を予測するように設計されている。
評価の結果,テストシナリオの少なくとも半分において,予測値が有意な精度を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 0.2900810893770134
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this endeavor, we developed a comprehensive system that processes
integrated visual features derived from video frames captured by a regular
camera, along with depth details obtained from a point cloud scanner. This
system is designed to anticipate driving actions, encompassing both vehicle
speed and steering angle. To ensure its reliability, we conducted assessments
where we juxtaposed the projected outcomes with the established norms adhered
to by skilled real-world drivers. Our evaluation outcomes indicate that the
forecasts achieve a noteworthy level of accuracy in a minimum of half the test
scenarios (ranging around 50-80%, contingent on the specific model). Notably,
the utilization of amalgamated features yielded superior performance in
comparison to using video frames in isolation, as demonstrated by most of the
cases.
- Abstract(参考訳): そこで本研究では,通常のカメラで撮影された映像フレームから得られる視覚特徴と,ポイントクラウドスキャナから得られた奥行き詳細を総合的に処理する総合システムを開発した。
このシステムは、車両の速度と操舵角度の両方を含む運転行動を予測するように設計されている。
信頼性を確保するために,実世界の熟練ドライバが固執する確立された規範を用いて,予測結果に合致する評価を行った。
評価結果から,少なくとも半数のシナリオ(50~80%程度,特定のモデルに相当)において,予測が注目に値する精度を達成していることが示された。
特に,アマルガメート機能の利用は,ビデオフレームを単独で使用する場合と比較して,ほとんどの場合において優れた性能を示した。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
コストのかかるラベルを必要とせずにエンドツーエンドの運転を改善するための,新しい自己管理手法を提案する。
フレームワーク textbfLAW は LAtent World モデルを用いて,予測エゴアクションと現在のフレームの潜在機能に基づいて,今後の潜在機能を予測する。
その結果,オープンループベンチマークとクローズループベンチマークの両方において,コストのかかるアノテーションを使わずに最先端のパフォーマンスを実現することができた。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - Valeo4Cast: A Modular Approach to End-to-End Forecasting [93.86257326005726]
我々のソリューションはArgoverse 2 end-to-end Forecasting Challengeで63.82 mAPfでランクインした。
私たちは、知覚から予測までエンドツーエンドのトレーニングを通じて、このタスクに取り組む現在のトレンドから離れ、代わりにモジュラーアプローチを使用します。
私たちは、昨年の優勝者より+17.1ポイント、今年の優勝者より+13.3ポイント、予測結果を+17.1ポイント上回る。
論文 参考訳(メタデータ) (2024-06-12T11:50:51Z) - Robust Self-Supervised Extrinsic Self-Calibration [25.727912226753247]
マルチカメラによるビデオからの単眼深度推定は、環境を判断する上で有望な方法である。
本稿では,自己教師型単眼深度と自我運動学習の原理を基礎として,外因性キャリブレーションの新たな手法を提案する。
論文 参考訳(メタデータ) (2023-08-04T06:20:20Z) - Visual Saliency Detection in Advanced Driver Assistance Systems [7.455416595124159]
本稿では,ドライバの眠気検知システムと,サリエンシに基づく情景理解パイプラインを組み合わせたインテリジェントシステムを提案する。
我々は、運転者を監視するために、ハンドルに埋め込まれた革新的なバイオセンサーを使用している。
収集したPSG時系列を分類するために、専用の1D時間深部畳み込みネットワークが考案された。
論文 参考訳(メタデータ) (2023-07-26T15:41:54Z) - Non-Intrusive Driver Behavior Characterization From Road-Side Cameras [1.9659095632676098]
本稿では,ITS システムの路面カメラのみを用いて車体挙動を特徴付ける概念の証明を示す。
また,外部映像分析に基づく運転者の分類は,車両のキャラクタリゼーションの精度の1~2%以内の精度が得られることを示した。
論文 参考訳(メタデータ) (2023-02-25T17:22:49Z) - Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates [23.449073032842076]
運転観察モデルは完璧な条件下で展開されることは滅多にない。
生のニューラルネットワークベースのアプローチは、予測品質を大幅に過大評価する傾向がある。
本稿では,CARing(Callibrated Action Recognition with Input Guidance)という,ビデオ表現による信頼度向上学習のためのニューラルネットワークを活用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T12:43:58Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。