論文の概要: AutoExp: A multidisciplinary, multi-sensor framework to evaluate human
activities in self-driving cars
- arxiv url: http://arxiv.org/abs/2306.03115v1
- Date: Mon, 5 Jun 2023 13:13:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 19:11:12.660403
- Title: AutoExp: A multidisciplinary, multi-sensor framework to evaluate human
activities in self-driving cars
- Title(参考訳): AutoExp: 自動運転車の人間活動を評価するための多分野・マルチセンサーフレームワーク
- Authors: Carlos Crispim-Junior, Romain Guesdon, Christophe Jallais, Florent
Laroche, Stephanie Souche-Le Corvec, Laure Tougne Rodet
- Abstract要約: 本稿では,自動運転車の利用者の行動を研究するための実験枠組みを提案する。
このフレームワークは実験シナリオとデータ取得モジュールで構成されている。
まず、最も近い現実の環境で車の使用状況に関する実世界のデータを取得し、次に、キャビン内の人間の活動を含むデータセットを作成します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adoption of self-driving cars will certainly revolutionize our lives,
even though they may take more time to become fully autonomous than initially
predicted. The first vehicles are already present in certain cities of the
world, as part of experimental robot-taxi services. However, most existing
studies focus on the navigation part of such vehicles. We currently miss
methods, datasets, and studies to assess the in-cabin human component of the
adoption of such technology in real-world conditions. This paper proposes an
experimental framework to study the activities of occupants of self-driving
cars using a multidisciplinary approach (computer vision associated with human
and social sciences), particularly non-driving related activities. The
framework is composed of an experimentation scenario, and a data acquisition
module. We seek firstly to capture real-world data about the usage of the
vehicle in the nearest possible, real-world conditions, and secondly to create
a dataset containing in-cabin human activities to foster the development and
evaluation of computer vision algorithms. The acquisition module records
multiple views of the front seats of the vehicle (Intel RGB-D and GoPro
cameras); in addition to survey data about the internal states and attitudes of
participants towards this type of vehicle before, during, and after the
experimentation. We evaluated the proposed framework with the realization of
real-world experimentation with 30 participants (1 hour each) to study the
acceptance of SDCs of SAE level 4.
- Abstract(参考訳): 自動運転車の採用が私たちの生活に革命をもたらすことは確かだ。
最初の車両はすでに、実験的なロボットタクシーサービスの一環として、世界中の一部の都市に存在している。
しかし、既存のほとんどの研究は、そのような車両の航法部分に焦点を当てている。
現在、このような技術が現実の状況で採用される際の人的要素を評価するための方法、データセット、研究を見逃している。
本稿では,多学際的アプローチ(人間と社会科学に関連するコンピュータビジョン,特に非自動運転関連活動)を用いて,自律運転者の活動を研究するための実験的な枠組みを提案する。
このフレームワークは実験シナリオとデータ取得モジュールで構成されている。
まず、最寄りの現実の状況における車両の使用状況に関する実世界データを取得し、次に、コンピュータビジョンアルゴリズムの開発と評価を促進するために、インカビンの人間活動を含むデータセットを作成する。
取得モジュールは、車両の前部座席(intel rgb-dとgoproカメラ)の複数のビューを記録し、実験の前後における、このタイプの車両に対する内部状態と参加者の態度に関する調査データも記録している。
SAEレベル4のSDCの受け入れを検討するために,30人の参加者(1時間毎)による実世界実験の実現により提案手法を評価した。
関連論文リスト
- The Role of World Models in Shaping Autonomous Driving: A Comprehensive Survey [50.62538723793247]
ドライビング・ワールド・モデル(DWM)は、ドライビング・プロセス中のシーンの進化を予測することに焦点を当てている。
DWM法は、自律運転システムが動的運転環境をよりよく知覚し、理解し、相互作用することを可能にする。
論文 参考訳(メタデータ) (2025-02-14T18:43:15Z) - Transfer Your Perspective: Controllable 3D Generation from Any Viewpoint in a Driving Scene [56.73568220959019]
共同自動運転(CAV)は有望な方向のようだが、開発のためのデータ収集は簡単ではない。
本研究では,運転シーンにおける異なる視点から現実的な知覚を生み出すことを目的とした,救助支援のための新しいサロゲートを提案する。
シミュレーションされたコラボレーティブデータと実車データを組み合わせた,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2025-02-10T17:07:53Z) - VTD: Visual and Tactile Database for Driver State and Behavior Perception [1.6277623188953556]
本稿では,運転状態とインタラクション行動の主観的不確実性に対処する新しい視覚触覚認識手法を提案する。
疲労および散逸条件下でのマルチモーダルデータを包含する包括的データセットを開発した。
論文 参考訳(メタデータ) (2024-12-06T09:31:40Z) - Pedestrian motion prediction evaluation for urban autonomous driving [0.0]
我々は、従来の動き予測指標の妥当性を決定するために、提供されたオープンソースソリューションを用いて、選択した出版物を解析する。
この視点は、既存の最先端の歩行者運動予測問題の現実的なパフォーマンスを探している、自動運転やロボット工学の潜在的なエンジニアにとって価値があるだろう。
論文 参考訳(メタデータ) (2024-10-22T10:06:50Z) - Open-sourced Data Ecosystem in Autonomous Driving: the Present and Future [130.87142103774752]
このレビューは、70以上のオープンソースの自動運転データセットを体系的に評価する。
高品質なデータセットの作成の基礎となる原則など、さまざまな側面に関する洞察を提供する。
また、解決を保障する科学的、技術的課題も検討している。
論文 参考訳(メタデータ) (2023-12-06T10:46:53Z) - Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions [2.693342141713236]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z) - Autonomous Driving with Deep Learning: A Survey of State-of-Art
Technologies [12.775642557933908]
これはディープラーニング手法を用いた自動運転技術のサーベイである。
本稿では,認識,マッピングとローカライゼーション,予測,計画と制御,シミュレーション,V2X,安全性など,自動運転システムの主要な分野について検討する。
論文 参考訳(メタデータ) (2020-06-10T22:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。