論文の概要: Sensor Fusion of Camera and Cloud Digital Twin Information for
Intelligent Vehicles
- arxiv url: http://arxiv.org/abs/2007.04350v1
- Date: Wed, 8 Jul 2020 18:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:42:55.259518
- Title: Sensor Fusion of Camera and Cloud Digital Twin Information for
Intelligent Vehicles
- Title(参考訳): インテリジェント車両のためのカメラとクラウドデジタルツイン情報のセンサ融合
- Authors: Yongkang Liu, Ziran Wang, Kyungtae Han, Zhenyu Shou, Prashant Tiwari,
and John H. L. Hansen
- Abstract要約: クラウドからカメラ画像とDigital Twinの知識を統合する新しいセンサ融合手法を提案する。
最適なマッチング結果は、0.7インターセクション・オーバー・ユニオン(IoU)閾値以下で79.2%の精度で得られ、奥行き画像が付加的な特徴源として提供される。
ゲームエンジンをベースとしたシミュレーションの結果、視覚誘導システムにより運転安全性が向上し、クラウドのDigital Twinシステムと大幅に協調することが判明した。
- 参考スコア(独自算出の注目度): 26.00647601539363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of intelligent vehicles and Advanced Driving
Assistance Systems (ADAS), a mixed level of human driver engagements is
involved in the transportation system. Visual guidance for drivers is essential
under this situation to prevent potential risks. To advance the development of
visual guidance systems, we introduce a novel sensor fusion methodology,
integrating camera image and Digital Twin knowledge from the cloud. Target
vehicle bounding box is drawn and matched by combining results of object
detector running on ego vehicle and position information from the cloud. The
best matching result, with a 79.2% accuracy under 0.7 Intersection over Union
(IoU) threshold, is obtained with depth image served as an additional feature
source. Game engine-based simulation results also reveal that the visual
guidance system could improve driving safety significantly cooperate with the
cloud Digital Twin system.
- Abstract(参考訳): インテリジェントな車両と高度運転支援システム(ADAS)の急速な発展に伴い、交通システムには様々なレベルの人間ドライバーの関与が関与している。
この状況下では、ドライバーの視覚誘導は潜在的なリスクを防ぐために不可欠である。
本稿では,視覚誘導システムの開発を進めるために,カメラ画像とクラウドからのデジタルツイン知識を統合した新しいセンサ融合手法を提案する。
目標車両バウンディングボックスは、エゴ車両上を走行する物体検出器の結果と雲からの位置情報とを組み合わせることで描画・マッチングされる。
ユニオン(iou)しきい値の0.7の交点で79.2%の精度で一致し、追加の特徴点として深度画像が得られた。
ゲームエンジンベースのシミュレーション結果は、視覚誘導システムがクラウドデジタルツインシステムと大幅に協調して運転安全性を向上させることも明らかにしている。
関連論文リスト
- Enhancing Track Management Systems with Vehicle-To-Vehicle Enabled Sensor Fusion [0.0]
本稿では,新しいV2V対応トラック管理システムを提案する。
中心となるイノベーションは、V2V通信を通じて検証された融合検出からなる独立した優先度トラックリストの作成にある。
本システムでは,V2X信号のファルシフィケーションが,認識センサからの検知を用いて,初期車両識別プロセスを通じて発生することの意義を考察する。
論文 参考訳(メタデータ) (2024-04-26T20:54:44Z) - HawkDrive: A Transformer-driven Visual Perception System for Autonomous Driving in Night Scene [2.5022287664959446]
HawkDriveは、ハードウェアとソフトウェアソリューションを備えた新しいビジョンシステムである。
立体視認識を利用するハードウェアは、エッジコンピューティングデバイスNvidia Jetson Xavier AGXと提携している。
低光強調、深度推定、セマンティックセグメンテーションタスクのためのソフトウェアは、トランスフォーマーベースのニューラルネットワークである。
論文 参考訳(メタデータ) (2024-04-06T15:10:29Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Cross-Dataset Experimental Study of Radar-Camera Fusion in Bird's-Eye
View [12.723455775659414]
レーダーとカメラの融合システムは、非常に堅牢で信頼性の高い認識システムを提供する可能性がある。
カメラによる物体検出の最近の進歩は、鳥の視線特徴地図を用いた新しいレーダーカメラ融合の可能性をもたらす。
本稿では,新しいフレキシブルな融合ネットワークを提案し,その性能を2つのデータセットで評価する。
論文 参考訳(メタデータ) (2023-09-27T08:02:58Z) - Smart Infrastructure: A Research Junction [5.172393727004225]
本稿では,ドイツ・アシャッフェンブルクの公的な市内交差点に位置する視覚センサ技術を備えたインテリジェントな研究基盤について紹介する。
マルチビューカメラシステムは、交通状況を監視し、道路利用者の行動を知覚する。
このシステムは、データ生成の研究、新しいHADセンサーシステム、アルゴリズム、人工知能(AI)トレーニング戦略の評価に使用される。
論文 参考訳(メタデータ) (2023-07-12T14:04:12Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study [38.65843674620544]
我々は,カメラ画像とDigital Twin情報をクラウドから統合して,インテリジェントな車両のより良い意思決定を支援する,新しいビジョンクラウドデータ融合手法を導入する。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
論文 参考訳(メタデータ) (2021-12-07T23:42:21Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。