論文の概要: Human-Vehicle Cooperative Visual Perception for Shared Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2112.09298v1
- Date: Fri, 17 Dec 2021 03:17:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:05:47.343436
- Title: Human-Vehicle Cooperative Visual Perception for Shared Autonomous
Driving
- Title(参考訳): 共有自動運転のための人車協調視覚認識
- Authors: Yiyue Zhao, Cailin Lei, Yu Shen, Yuchuan Du, Qijun Chen
- Abstract要約: 本稿では、共有自動運転の視覚知覚能力を高めるために、人車協調視覚認識法を提案する。
移動学習に基づいて、物体検出のmAPは75.52%に達し、視覚融合の基礎となる。
本研究は、実世界の複雑な交通紛争シナリオにおける共有自動運転と実験のための協調的視覚知覚ソリューションの先駆者である。
- 参考スコア(独自算出の注目度): 9.537146822132904
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the development of key technologies like environment perception, the
automation level of autonomous vehicles has been increasing. However, before
reaching highly autonomous driving, manual driving still needs to participate
in the driving process to ensure the safety of human-vehicle shared driving.
The existing human-vehicle cooperative driving focuses on auto engineering and
drivers' behaviors, with few research studies in the field of visual
perception. Due to the bad performance in the complex road traffic conflict
scenarios, cooperative visual perception needs to be studied further. In
addition, the autonomous driving perception system cannot correctly understand
the characteristics of manual driving. Based on the background above, this
paper directly proposes a human-vehicle cooperative visual perception method to
enhance the visual perception ability of shared autonomous driving based on the
transfer learning method and the image fusion algorithm for the complex road
traffic scenarios. Based on transfer learning, the mAP of object detection
reaches 75.52% and lays a solid foundation for visual fusion. And the fusion
experiment further reveals that human-vehicle cooperative visual perception
reflects the riskiest zone and predicts the conflict object's trajectory more
precisely. This study pioneers a cooperative visual perception solution for
shared autonomous driving and experiments in real-world complex traffic
conflict scenarios, which can better support the following planning and
controlling and improve the safety of autonomous vehicles.
- Abstract(参考訳): 環境認識などの重要な技術の発展に伴い、自動運転車の自動化レベルが向上している。
しかし、高度に自律的な運転に達する前には、人車共有運転の安全性を確保するためには、手動運転が運転プロセスに参加する必要がある。
既存の自動車協同運転は自動車工学と運転者の行動に焦点を当てており、視覚認知の分野での研究はほとんどない。
複雑な道路交通の衝突シナリオにおける性能の悪さから、協調的な視覚認知をさらに研究する必要がある。
また、自律運転知覚システムは、手動運転の特徴を正確に理解することができない。
そこで本稿では,この背景に基づいて,複雑な道路交通シナリオに対するトランスファー学習法と画像融合アルゴリズムを用いて,共有運転の視覚認知能力を高めるための車両協調視覚知覚手法を直接提案する。
移動学習に基づいて、物体検出のmAPは75.52%に達し、視覚融合の基礎となる。
また,この融合実験により,人間と車両の協調視覚知覚は最もリスクの高いゾーンを反映し,衝突対象の軌道をより正確に予測できることが明らかとなった。
本研究は,実世界の複雑な交通衝突シナリオにおける共有運転と実験のための協調視覚知覚ソリューションの先駆者であり,自律走行車の今後の計画・制御・安全性向上を支援する。
関連論文リスト
- Scalable Decentralized Cooperative Platoon using Multi-Agent Deep
Reinforcement Learning [2.5499055723658097]
本稿では,交通流と安全を向上する車両小隊方式を提案する。
Unity 3Dゲームエンジンで深層強化学習を用いて開発されている。
提案した小隊モデルは、スケーラビリティ、分散化、ポジティブな協力の促進に重点を置いている。
論文 参考訳(メタデータ) (2023-12-11T22:04:38Z) - Decision Making for Autonomous Driving in Interactive Merge Scenarios
via Learning-based Prediction [39.48631437946568]
本稿では,他のドライバの動作から不確実性が生ずる移動トラフィックにマージする複雑なタスクに焦点を当てる。
我々はこの問題を部分的に観測可能なマルコフ決定プロセス(POMDP)とみなし、モンテカルロ木探索でオンラインに解決する。
POMDPの解決策は、接近する車に道を譲る、前方の車から安全な距離を維持する、あるいは交通に合流するといった、高いレベルの運転操作を行う政策である。
論文 参考訳(メタデータ) (2023-03-29T16:12:45Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Intelligent Perception System for Vehicle-Road Cooperation [0.0]
自動車と道路の協調自動運転技術は、車両の認識範囲を広げ、視覚障害領域を補完し、知覚精度を向上させることができる。
このプロジェクトでは主にライダーを用いて、車両と道路機器データの共有と組み合わせを実現し、動的目標の検出と追跡を実現するためにデータ融合スキームを開発する。
論文 参考訳(メタデータ) (2022-08-30T08:10:34Z) - Exploring the trade off between human driving imitation and safety for
traffic simulation [0.34410212782758043]
運転方針の学習において,人間の運転の模倣と安全維持との間にはトレードオフが存在することを示す。
両目的を協調的に改善する多目的学習アルゴリズム(MOPPO)を提案する。
論文 参考訳(メタデータ) (2022-08-09T14:30:19Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - Deep Reinforcement Learning for Human-Like Driving Policies in Collision
Avoidance Tasks of Self-Driving Cars [1.160208922584163]
自動運転ポリシーを生成するために,モデルフリーで深層強化学習手法を導入する。
本研究では,2車線道路における静的障害物回避タスクをシミュレーションで検討する。
このアプローチが人間ライクな運転ポリシーにつながることを実証します。
論文 参考訳(メタデータ) (2020-06-07T18:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。