論文の概要: ROADWork Dataset: Learning to Recognize, Observe, Analyze and Drive Through Work Zones
- arxiv url: http://arxiv.org/abs/2406.07661v1
- Date: Tue, 11 Jun 2024 19:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 21:25:46.290369
- Title: ROADWork Dataset: Learning to Recognize, Observe, Analyze and Drive Through Work Zones
- Title(参考訳): ROADWorkデータセット:ワークゾーンを認識し、観察し、分析し、運転する学習
- Authors: Anurag Ghosh, Robert Tamburo, Shen Zheng, Juan R. Alvarez-Padilla, Hailiang Zhu, Michael Cardei, Nicholas Dunn, Christoph Mertz, Srinivasa G. Narasimhan,
- Abstract要約: ROADWorkデータセットを提案し、ワークゾーンの認識、観察、分析、運転の仕方を学習する。
最先端のファンデーションモデルでは、作業ゾーンではパフォーマンスが悪いことが分かりました。
また,ワークゾーンナビゲーションビデオからドライビング可能な経路を計算し,ナビゲーションの目標を予測可能であることを示す。
- 参考スコア(独自算出の注目度): 16.63952952676598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perceiving and navigating through work zones is challenging and under-explored, even with major strides in self-driving research. An important reason is the lack of open datasets for developing new algorithms to address this long-tailed scenario. We propose the ROADWork dataset to learn how to recognize, observe and analyze and drive through work zones. We find that state-of-the-art foundation models perform poorly on work zones. With our dataset, we improve upon detecting work zone objects (+26.2 AP), while discovering work zones with higher precision (+32.5%) at a much higher discovery rate (12.8 times), significantly improve detecting (+23.9 AP) and reading (+14.2% 1-NED) work zone signs and describing work zones (+36.7 SPICE). We also compute drivable paths from work zone navigation videos and show that it is possible to predict navigational goals and pathways such that 53.6% goals have angular error (AE) < 0.5 degrees (+9.9 %) and 75.3% pathways have AE < 0.5 degrees (+8.1 %).
- Abstract(参考訳): 自動運転研究の大きな進歩にもかかわらず、ワークゾーンの認識とナビゲートは困難で、未調査だ。
重要な理由は、この長いシナリオに対処する新しいアルゴリズムを開発するためのオープンデータセットがないことである。
ROADWorkデータセットを提案し、ワークゾーンの認識、観察、分析、運転の仕方を学習する。
最先端のファンデーションモデルでは、作業ゾーンではパフォーマンスが悪いことが分かりました。
本データセットでは,作業ゾーン検出(+26.2 AP),高精度(+32.5%),発見率(12.8倍),検出(+23.9 AP),読取(+14.2%1-NED),作業ゾーン記述(+36.7 SPICE)の改善を行った。
また、作業ゾーンのナビゲーションビデオから乾燥可能な経路を計算し、53.6%の目標が角誤差 (AE) <0.5度 (+9.9 %) で75.3%の経路がAE <0.5度 (+8.1 %) であるような航法目標や経路を予測することができることを示した。
関連論文リスト
- An Attention-Based Multi-Context Convolutional Encoder-Decoder Neural Network for Work Zone Traffic Impact Prediction [6.14400858731508]
ワークゾーンは、非リカレント交通渋滞や道路事故の主な原因の1つである。
多様なプラットフォームからのワークゾーンとトラフィックデータの利用を向上させるデータ統合パイプラインを提案する。
計画された作業ゾーンイベントにおける交通速度と事故発生確率を予測するための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2024-05-31T17:38:49Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - Deep Reinforcement Learning with Dynamic Graphs for Adaptive Informative Path Planning [22.48658555542736]
ロボットデータ取得における重要な課題は、当初未知の環境を抜けて観測を収集する計画経路である。
そこで本研究では,未知の3D環境において,ロボット経路を適応的に計画し,対象をマップする深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T14:24:41Z) - BootsTAP: Bootstrapped Training for Tracking-Any-Point [62.585297341343505]
Tracking-Any-Point (TAP) は、ビデオ中の固体表面上の任意の点を追跡するアルゴリズムとして形式化することができる。
大規模でラベルなし、未修正のリアルワールドデータが、最小限のアーキテクチャ変更でTAPモデルを改善することができることを示す。
我々は,TAP-Vidベンチマークにおける最先端性能が,従来の結果よりも広いマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-02-01T18:38:55Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - Real-Time And Robust 3D Object Detection with Roadside LiDARs [20.10416681832639]
道路沿いのLiDARにおける交通参加者をリアルタイムに検出できる3次元物体検出モデルを設計する。
我々のモデルは既存の3D検出器をベースラインとして使用し、精度を向上させる。
スマートシティのアプリケーションに使用できるLiDARベースの3D検出器に多大な貢献をしています。
論文 参考訳(メタデータ) (2022-07-11T21:33:42Z) - Predicting Driver Intention Using Deep Neural Network [0.0]
本稿では,Brain4Carsデータセットを用いたダイバー操作の予測に4つの入力を使用する新しいフレームワークを提案する。
フレームワークを3つのシナリオで評価しました。
最先端の研究と比較すると、アーキテクチャは高速で、2番目と3番目のシナリオで高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-05-31T08:34:57Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction [24.855059537779294]
本稿では、新しいエンドツーエンド2段階ネットワーク:spatio--Interactive Network(STINet)を提案する。
歩行者の3次元形状に加えて,歩行者ごとの時間情報をモデル化する。
提案手法は,1段目における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクできるようにする。
論文 参考訳(メタデータ) (2020-05-08T18:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。