論文の概要: AutoExp: A multidisciplinary, multi-sensor framework to evaluate human
activities in self-driving cars
- arxiv url: http://arxiv.org/abs/2306.03115v1
- Date: Mon, 5 Jun 2023 13:13:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 19:11:12.660403
- Title: AutoExp: A multidisciplinary, multi-sensor framework to evaluate human
activities in self-driving cars
- Title(参考訳): AutoExp: 自動運転車の人間活動を評価するための多分野・マルチセンサーフレームワーク
- Authors: Carlos Crispim-Junior, Romain Guesdon, Christophe Jallais, Florent
Laroche, Stephanie Souche-Le Corvec, Laure Tougne Rodet
- Abstract要約: 本稿では,自動運転車の利用者の行動を研究するための実験枠組みを提案する。
このフレームワークは実験シナリオとデータ取得モジュールで構成されている。
まず、最も近い現実の環境で車の使用状況に関する実世界のデータを取得し、次に、キャビン内の人間の活動を含むデータセットを作成します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adoption of self-driving cars will certainly revolutionize our lives,
even though they may take more time to become fully autonomous than initially
predicted. The first vehicles are already present in certain cities of the
world, as part of experimental robot-taxi services. However, most existing
studies focus on the navigation part of such vehicles. We currently miss
methods, datasets, and studies to assess the in-cabin human component of the
adoption of such technology in real-world conditions. This paper proposes an
experimental framework to study the activities of occupants of self-driving
cars using a multidisciplinary approach (computer vision associated with human
and social sciences), particularly non-driving related activities. The
framework is composed of an experimentation scenario, and a data acquisition
module. We seek firstly to capture real-world data about the usage of the
vehicle in the nearest possible, real-world conditions, and secondly to create
a dataset containing in-cabin human activities to foster the development and
evaluation of computer vision algorithms. The acquisition module records
multiple views of the front seats of the vehicle (Intel RGB-D and GoPro
cameras); in addition to survey data about the internal states and attitudes of
participants towards this type of vehicle before, during, and after the
experimentation. We evaluated the proposed framework with the realization of
real-world experimentation with 30 participants (1 hour each) to study the
acceptance of SDCs of SAE level 4.
- Abstract(参考訳): 自動運転車の採用が私たちの生活に革命をもたらすことは確かだ。
最初の車両はすでに、実験的なロボットタクシーサービスの一環として、世界中の一部の都市に存在している。
しかし、既存のほとんどの研究は、そのような車両の航法部分に焦点を当てている。
現在、このような技術が現実の状況で採用される際の人的要素を評価するための方法、データセット、研究を見逃している。
本稿では,多学際的アプローチ(人間と社会科学に関連するコンピュータビジョン,特に非自動運転関連活動)を用いて,自律運転者の活動を研究するための実験的な枠組みを提案する。
このフレームワークは実験シナリオとデータ取得モジュールで構成されている。
まず、最寄りの現実の状況における車両の使用状況に関する実世界データを取得し、次に、コンピュータビジョンアルゴリズムの開発と評価を促進するために、インカビンの人間活動を含むデータセットを作成する。
取得モジュールは、車両の前部座席(intel rgb-dとgoproカメラ)の複数のビューを記録し、実験の前後における、このタイプの車両に対する内部状態と参加者の態度に関する調査データも記録している。
SAEレベル4のSDCの受け入れを検討するために,30人の参加者(1時間毎)による実世界実験の実現により提案手法を評価した。
関連論文リスト
- Pedestrian motion prediction evaluation for urban autonomous driving [0.0]
我々は、従来の動き予測指標の妥当性を決定するために、提供されたオープンソースソリューションを用いて、選択した出版物を解析する。
この視点は、既存の最先端の歩行者運動予測問題の現実的なパフォーマンスを探している、自動運転やロボット工学の潜在的なエンジニアにとって価値があるだろう。
論文 参考訳(メタデータ) (2024-10-22T10:06:50Z) - Open-sourced Data Ecosystem in Autonomous Driving: the Present and Future [130.87142103774752]
このレビューは、70以上のオープンソースの自動運転データセットを体系的に評価する。
高品質なデータセットの作成の基礎となる原則など、さまざまな側面に関する洞察を提供する。
また、解決を保障する科学的、技術的課題も検討している。
論文 参考訳(メタデータ) (2023-12-06T10:46:53Z) - Analyze Drivers' Intervention Behavior During Autonomous Driving -- A
VR-incorporated Approach [2.7532019227694344]
この研究は、自動運転車の運転に関わる人間のドライバーの介入行動を理解することに光を当てている。
仮想リアリティ(VR)と交通マイクロシミュレーションを統合する実験環境が実装された。
介入の確率、事故率などのパフォーマンス指標が定義され、リスクレベルを定量化し比較するために使用される。
論文 参考訳(メタデータ) (2023-12-04T06:36:57Z) - Driving into the Future: Multiview Visual Forecasting and Planning with
World Model for Autonomous Driving [56.381918362410175]
Drive-WMは、既存のエンド・ツー・エンドの計画モデルと互換性のある世界初のドライビングワールドモデルである。
ドライビングシーンで高忠実度マルチビュー映像を生成する。
論文 参考訳(メタデータ) (2023-11-29T18:59:47Z) - Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions [2.693342141713236]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z) - Autonomous Driving with Deep Learning: A Survey of State-of-Art
Technologies [12.775642557933908]
これはディープラーニング手法を用いた自動運転技術のサーベイである。
本稿では,認識,マッピングとローカライゼーション,予測,計画と制御,シミュレーション,V2X,安全性など,自動運転システムの主要な分野について検討する。
論文 参考訳(メタデータ) (2020-06-10T22:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。