論文の概要: Autonomous Vehicle Visual Signals for Pedestrians: Experiments and
Design Recommendations
- arxiv url: http://arxiv.org/abs/2010.05115v1
- Date: Sat, 10 Oct 2020 22:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 23:38:32.295687
- Title: Autonomous Vehicle Visual Signals for Pedestrians: Experiments and
Design Recommendations
- Title(参考訳): 歩行者のための自律車両視覚信号:実験と設計推奨
- Authors: Henry Chen, Robin Cohen, Kerstin Dautenhahn, Edith Law, Krzysztof
Czarnecki
- Abstract要約: 運転手がいない状態では、自動運転車が歩行者にその意図を伝える方法が明確ではない。
歩行者横断歩道における視認性,直感性,説得性,ユーザビリティの6つの視覚信号の評価を行った。
我々は、信号パターンの設計と配置に焦点をあてて、12の実用的なAV視覚信号の設計勧告を精査する。
- 参考スコア(独自算出の注目度): 15.93407659887257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Vehicles (AV) will transform transportation, but also the
interaction between vehicles and pedestrians. In the absence of a driver, it is
not clear how an AV can communicate its intention to pedestrians. One option is
to use visual signals. To advance their design, we conduct four
human-participant experiments and evaluate six representative AV visual signals
for visibility, intuitiveness, persuasiveness, and usability at pedestrian
crossings. Based on the results, we distill twelve practical design
recommendations for AV visual signals, with focus on signal pattern design and
placement. Moreover, the paper advances the methodology for experimental
evaluation of visual signals, including lab, closed-course, and public road
tests using an autonomous vehicle. In addition, the paper also reports insights
on pedestrian crosswalk behaviours and the impacts of pedestrian trust towards
AVs on the behaviors. We hope that this work will constitute valuable input to
the ongoing development of international standards for AV lamps, and thus help
mature automated driving in general.
- Abstract(参考訳): 自動運転車(AV)は交通機関を変革するだけでなく、車と歩行者の対話も行う。
運転者がいない場合、AVがその意図を歩行者に伝えることができるかは明らかでない。
視覚信号を使う方法もある。
歩行者横断歩道における可視性, 直感性, 説得性, 使いやすさの6つの代表的なav視覚信号を評価する。
この結果に基づいて,信号パターンの設計と配置に着目し,AV視覚信号の実用的な設計勧告12点を抽出した。
さらに, 自動運転車を用いた実験室, 閉コース, 公道試験など, 視覚信号の実験的評価手法を推進した。
さらに,歩行者の横断歩道行動に関する知見や,歩行者の行動に対する信頼度の影響についても報告する。
我々は、この作業がavランプの国際規格の継続的な発展に貴重なインプットとなることを望んでいる。
関連論文リスト
- Development and Assessment of Autonomous Vehicles in Both Fully
Automated and Mixed Traffic Conditions [0.0]
本稿では,単一AVの開発から始まり,接続型AVへと進展する多段階アプローチを提案する。
AVの運転性能を検証するために調査を行い、混合交通事例研究に活用する。
その結果, 深部強化学習を用いて, AVは人間の運転性能に到達した運転行動を得た。
AVネットワークにおける共有とケアに基づくV2Vコミュニケーションの採用は、その運転行動を高め、より効果的な行動計画を支援し、AV間の協調行動を促進する。
論文 参考訳(メタデータ) (2023-12-08T02:40:11Z) - Pedestrian Environment Model for Automated Driving [54.16257759472116]
歩行者の位置とポーズ情報を含む環境モデルを提案する。
画像から人間のポーズ推定器を用いて骨格情報を抽出する。
位置の3D情報を得るために,車両の位置と合わせて連続するフレームからデータを集約する。
論文 参考訳(メタデータ) (2023-08-17T16:10:58Z) - Local and Global Contextual Features Fusion for Pedestrian Intention
Prediction [2.203209457340481]
我々は歩行者と交通状況の両方の視覚的特徴を分析し分析する。
グローバルな文脈を理解するために、位置、動き、環境情報を利用する。
これらのマルチモダリティ機能は、効果的な意図学習のためにインテリジェントに融合されている。
論文 参考訳(メタデータ) (2023-05-01T22:37:31Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Human-Vehicle Cooperative Visual Perception for Shared Autonomous
Driving [9.537146822132904]
本稿では、共有自動運転の視覚知覚能力を高めるために、人車協調視覚認識法を提案する。
移動学習に基づいて、物体検出のmAPは75.52%に達し、視覚融合の基礎となる。
本研究は、実世界の複雑な交通紛争シナリオにおける共有自動運転と実験のための協調的視覚知覚ソリューションの先駆者である。
論文 参考訳(メタデータ) (2021-12-17T03:17:05Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Pedestrian Intention Prediction: A Multi-task Perspective [83.7135926821794]
グローバルに展開するためには、自動運転車は歩行者の安全を保証する必要がある。
本研究は歩行者の意図と視覚状態を共同で予測することでこの問題を解決しようとするものである。
この方法はマルチタスク学習アプローチにおけるリカレントニューラルネットワークである。
論文 参考訳(メタデータ) (2020-10-20T13:42:31Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - Efficient Behavior-aware Control of Automated Vehicles at Crosswalks
using Minimal Information Pedestrian Prediction Model [5.6640402503031515]
自動走行車(AV)が横断歩道を確実に走行するには、歩行者の横断行動を理解する必要がある。
歩行者横断行動の長期予測を組み込んだAV用行動認識モデル予測制御器(B-MPC)を提案する。
その結果、交差シナリオにおける安全かつ効率的なナビゲーションのためのコントローラの適用性を示した。
論文 参考訳(メタデータ) (2020-03-22T21:34:38Z) - Analysis and Prediction of Pedestrian Crosswalk Behavior during
Automated Vehicle Interactions [11.333580296938859]
短距離地平線(1-2秒)でしか予測できない横断歩道周辺のAV運動計画への最近の動向
本研究では,歩行者間隙受入行動と定速度ダイナミクスを長期的歩行者軌道予測に用いるハイブリッドシステムモデルを開発した。
その結果,横断歩道における歩行者軌道予測モデルの適用性を示した。
論文 参考訳(メタデータ) (2020-03-22T21:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。