論文の概要: AutoPreview: A Framework for Autopilot Behavior Understanding
- arxiv url: http://arxiv.org/abs/2102.13034v1
- Date: Thu, 25 Feb 2021 17:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 13:42:58.476794
- Title: AutoPreview: A Framework for Autopilot Behavior Understanding
- Title(参考訳): AutoPreview: オートパイロット行動理解のためのフレームワーク
- Authors: Yuan Shen, Niviru Wijayaratne, Peter Du, Shanduojiao Jiang, Katherine
Driggs Campbell
- Abstract要約: 消費者がターゲットのオートパイロットの潜在的なアクションをプレビューできるように、シンプルで効果的なフレームワークであるAutoPreviewを提案します。
対象のautopilotに対して、対象のautopilot動作を説明可能なアクション表現で再現するデリゲートポリシを設計します。
AutoPreviewが新しいオートパイロットポリシーを体験する際にオートパイロットの行動をより深く理解するかどうかを調べるパイロットスタディを実施します。
- 参考スコア(独自算出の注目度): 16.177399201198636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The behavior of self driving cars may differ from people expectations, (e.g.
an autopilot may unexpectedly relinquish control). This expectation mismatch
can cause potential and existing users to distrust self driving technology and
can increase the likelihood of accidents. We propose a simple but effective
framework, AutoPreview, to enable consumers to preview a target autopilot
potential actions in the real world driving context before deployment. For a
given target autopilot, we design a delegate policy that replicates the target
autopilot behavior with explainable action representations, which can then be
queried online for comparison and to build an accurate mental model. To
demonstrate its practicality, we present a prototype of AutoPreview integrated
with the CARLA simulator along with two potential use cases of the framework.
We conduct a pilot study to investigate whether or not AutoPreview provides
deeper understanding about autopilot behavior when experiencing a new autopilot
policy for the first time. Our results suggest that the AutoPreview method
helps users understand autopilot behavior in terms of driving style
comprehension, deployment preference, and exact action timing prediction.
- Abstract(参考訳): 自動運転車の挙動は、人々の期待と異なる場合がある(例)。
オートパイロットは予期しないほど制御を放棄する)。
この期待ミスマッチは、潜在的なユーザーや既存ユーザーが自動運転技術を信頼せず、事故の可能性を高める可能性がある。
デプロイ前に実世界の運転コンテキストでターゲットのオートパイロットの潜在的なアクションをプレビューできるように、シンプルで効果的なフレームワークであるAutoPreviewを提案します。
対象のオートパイロットに対して、我々は目的のオートパイロット動作を説明可能なアクション表現で再現するデリゲートポリシーを設計し、比較のためにオンラインでクエリし、正確なメンタルモデルを構築する。
その実用性を示すために,CARLAシミュレータと統合されたAutoPreviewのプロトタイプと,フレームワークの潜在的な2つのユースケースを提案する。
AutoPreviewが新しいオートパイロットポリシーを初めて体験する際にオートパイロットの行動をより深く理解するかどうかをパイロットスタディで調査します。
その結果,AutoPreview法は,運転スタイルの理解,デプロイメントの好み,正確な動作タイミング予測などの観点から,自動操縦動作の理解を支援することが示唆された。
関連論文リスト
- Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles [4.1636282808157254]
自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T23:02:13Z) - Are you a robot? Detecting Autonomous Vehicles from Behavior Analysis [6.422370188350147]
本稿では,車両が自律的かどうかを判断するために,カメラ画像と状態情報を用いてアクティブな車両を監視するフレームワークを提案する。
基本的には、自動運転車を識別するための機械学習モデルを提供する道路上で取得したデータをシェアする車両間の協力に基づいて構築される。
実験により,ビデオクリップを80%の精度で解析することにより,2つの行動の識別が可能であることが確認された。
論文 参考訳(メタデータ) (2024-03-14T17:00:29Z) - Analyze Drivers' Intervention Behavior During Autonomous Driving -- A
VR-incorporated Approach [2.7532019227694344]
この研究は、自動運転車の運転に関わる人間のドライバーの介入行動を理解することに光を当てている。
仮想リアリティ(VR)と交通マイクロシミュレーションを統合する実験環境が実装された。
介入の確率、事故率などのパフォーマンス指標が定義され、リスクレベルを定量化し比較するために使用される。
論文 参考訳(メタデータ) (2023-12-04T06:36:57Z) - Driving through the Concept Gridlock: Unraveling Explainability
Bottlenecks in Automated Driving [22.21822829138535]
本稿では,視覚的特徴として概念ボトルネックを用いる新しい手法を提案する。
我々は、車両制御コマンドを学習しながら、シーケンシャルな運転シーンを説明するために、人間の理解可能な概念層を学習する。
このアプローチは、人間の(または自動運転車)からの指示が外部からの刺激や好みの変化によって導かれるかどうかを判断するために使用することができる。
論文 参考訳(メタデータ) (2023-10-25T13:39:04Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Control-Aware Prediction Objectives for Autonomous Driving [78.19515972466063]
本研究では,制御に対する予測の下流効果を評価するための制御認識予測目標(CAPOs)を提案する。
本稿では,エージェント間の注意モデルを用いた重み付けと,予測軌跡を接地真実軌跡に交換する際の制御変動に基づく重み付けの2つの方法を提案する。
論文 参考訳(メタデータ) (2022-04-28T07:37:21Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Building Mental Models through Preview of Autopilot Behaviors [20.664610032249037]
私たちはAutoPreviewと呼ばれるフレームワークを導入し、人間が車と直接対話する前にオートパイロットの動作をプレビューできるようにします。
われわれはAutoPreviewフレームワークが自動操縦の振る舞いを理解し、適切なメンタルモデルを開発する手助けをしていることを示唆している。
論文 参考訳(メタデータ) (2021-04-12T13:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。