論文の概要: Building Mental Models through Preview of Autopilot Behaviors
- arxiv url: http://arxiv.org/abs/2104.05470v1
- Date: Mon, 12 Apr 2021 13:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 22:47:00.684979
- Title: Building Mental Models through Preview of Autopilot Behaviors
- Title(参考訳): オートパイロット行動のプレビューによるメンタルモデルの構築
- Authors: Yuan Shen and Niviru Wijayaratne and Katherine Driggs-Campbell
- Abstract要約: 私たちはAutoPreviewと呼ばれるフレームワークを導入し、人間が車と直接対話する前にオートパイロットの動作をプレビューできるようにします。
われわれはAutoPreviewフレームワークが自動操縦の振る舞いを理解し、適切なメンタルモデルを開発する手助けをしていることを示唆している。
- 参考スコア(独自算出の注目度): 20.664610032249037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective human-vehicle collaboration requires an appropriate un-derstanding
of vehicle behavior for safety and trust. Improvingon our prior work by adding
a future prediction module, we in-troduce our framework, calledAutoPreview, to
enable humans topreview autopilot behaviors prior to direct interaction with
thevehicle. Previewing autopilot behavior can help to ensure
smoothhuman-vehicle collaboration during the initial exploration stagewith the
vehicle. To demonstrate its practicality, we conducted acase study on
human-vehicle collaboration and built a prototypeof our framework with the
CARLA simulator. Additionally, weconducted a between-subject control experiment
(n=10) to studywhether ourAutoPreviewframework can provide a deeper
under-standing of autopilot behavior compared to direct interaction. Ourresults
suggest that theAutoPreviewframework does, in fact, helpusers understand
autopilot behavior and develop appropriate men-tal models
- Abstract(参考訳): 効果的な人間と車両の協調は、安全と信頼のために適切な車両の振る舞いを判断する必要がない。
将来の予測モジュールを追加することで、以前の作業を改善するため、私たちはAutoPreviewというフレームワークを導入しました。
自動操縦の動作のプレビューは、車両との最初の探査段階において、スムーズな人間と車両の協調を保証するのに役立つ。
その実用性を示すために,人間と車両の協調に関する事例研究を行い,carlaシミュレータを用いたプロトタイプを構築した。
さらに、我々のAutoPreviewframeworkが直接の相互作用と比較して、オートパイロットの振る舞いをより深く理解できるかどうかを研究するために、オブジェクト間制御実験(n=10)を行った。
ourresultsは、autopreviewframeworkは、実際に、ヘルパーがオートパイロットの振る舞いを理解し、適切なメンタルモデルを開発することを示唆している。
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles [4.1636282808157254]
自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T23:02:13Z) - Are you a robot? Detecting Autonomous Vehicles from Behavior Analysis [6.422370188350147]
本稿では,車両が自律的かどうかを判断するために,カメラ画像と状態情報を用いてアクティブな車両を監視するフレームワークを提案する。
基本的には、自動運転車を識別するための機械学習モデルを提供する道路上で取得したデータをシェアする車両間の協力に基づいて構築される。
実験により,ビデオクリップを80%の精度で解析することにより,2つの行動の識別が可能であることが確認された。
論文 参考訳(メタデータ) (2024-03-14T17:00:29Z) - Analyze Drivers' Intervention Behavior During Autonomous Driving -- A
VR-incorporated Approach [2.7532019227694344]
この研究は、自動運転車の運転に関わる人間のドライバーの介入行動を理解することに光を当てている。
仮想リアリティ(VR)と交通マイクロシミュレーションを統合する実験環境が実装された。
介入の確率、事故率などのパフォーマンス指標が定義され、リスクレベルを定量化し比較するために使用される。
論文 参考訳(メタデータ) (2023-12-04T06:36:57Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Drivers' Manoeuvre Modelling and Prediction for Safe HRI [0.0]
心の理論は、ロボット工学や、最近は自律車や半自律車のために広く研究されている。
本研究では、人間の動き、車の状態、人間の入力からのデータを組み合わせることで、行動の前に人間の意図を予測する方法について検討した。
論文 参考訳(メタデータ) (2021-06-03T10:07:55Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - AutoPreview: A Framework for Autopilot Behavior Understanding [16.177399201198636]
消費者がターゲットのオートパイロットの潜在的なアクションをプレビューできるように、シンプルで効果的なフレームワークであるAutoPreviewを提案します。
対象のautopilotに対して、対象のautopilot動作を説明可能なアクション表現で再現するデリゲートポリシを設計します。
AutoPreviewが新しいオートパイロットポリシーを体験する際にオートパイロットの行動をより深く理解するかどうかを調べるパイロットスタディを実施します。
論文 参考訳(メタデータ) (2021-02-25T17:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。