論文の概要: BikeActions: An Open Platform and Benchmark for Cyclist-Centric VRU Action Recognition
- arxiv url: http://arxiv.org/abs/2601.10521v2
- Date: Tue, 20 Jan 2026 12:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 18:45:13.551473
- Title: BikeActions: An Open Platform and Benchmark for Cyclist-Centric VRU Action Recognition
- Title(参考訳): BikeActions: サイクリスト中心のVRUアクション認識のためのオープンプラットフォームとベンチマーク
- Authors: Max A. Buettner, Kanak Mazumder, Luca Koecher, Mario Finkbeiner, Sebastian Niebler, Fabian B. Flohr,
- Abstract要約: FUSE-Bikeは、その種の最初の完全にオープンな認識プラットフォームである。
BikeActionsは5つのアクションクラスにわたる852の注釈付きサンプルからなる、新しいマルチモーダルデータセットである。
我々は、公開されたデータ分割に基づいて、最先端のグラフ畳み込みとトランスフォーマーベースのモデルを評価することで、厳密なベンチマークを確立する。
- 参考スコア(独自算出の注目度): 0.2339805471804333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anticipating the intentions of Vulnerable Road Users (VRUs) is a critical challenge for safe autonomous driving (AD) and mobile robotics. While current research predominantly focuses on pedestrian crossing behaviors from a vehicle's perspective, interactions within dense shared spaces remain underexplored. To bridge this gap, we introduce FUSE-Bike, the first fully open perception platform of its kind. Equipped with two LiDARs, a camera, and GNSS, it facilitates high-fidelity, close-range data capture directly from a cyclist's viewpoint. Leveraging this platform, we present BikeActions, a novel multi-modal dataset comprising 852 annotated samples across 5 distinct action classes, specifically tailored to improve VRU behavior modeling. We establish a rigorous benchmark by evaluating state-of-the-art graph convolution and transformer-based models on our publicly released data splits, establishing the first performance baselines for this challenging task. We release the full dataset together with data curation tools, the open hardware design, and the benchmark code to foster future research in VRU action understanding under https://iv.ee.hm.edu/bikeactions/.
- Abstract(参考訳): Vulnerable Road Users(VRU)の意図を期待することは、安全な自動運転(AD)とモバイルロボティクスにとって重要な課題である。
現在の研究は、主に自動車の観点からの歩行者の横断行動に焦点を当てているが、密接な共有空間内の相互作用は未探索のままである。
このギャップを埋めるために、我々はFUSE-Bikeを紹介した。
2つのLiDAR、カメラ、GNSSを備えており、サイクリストの視点から直接、高忠実で近距離のデータキャプチャを容易にする。
このプラットフォームを活用することで,5つのアクションクラスにわたる852の注釈付きサンプルを含む,新しいマルチモーダルデータセットであるBikeActionsを提示する。
我々は、公開されたデータ分割に基づいて、最先端のグラフ畳み込みとトランスフォーマーベースのモデルを評価することで、厳密なベンチマークを確立し、この課題に対する最初のパフォーマンスベースラインを確立します。
データキュレーションツール、オープンハードウェアデザイン、およびベンチマークコードとともに、完全なデータセットをリリースし、将来のVRUアクション理解の研究を促進するために、https://iv.ee.ee.hm.edu/bikeactions/。
関連論文リスト
- Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - A Benchmark for Cycling Close Pass Detection from Video Streams [31.962089421160055]
我々はCyc-CPと呼ばれる新しいベンチマークを導入し、ビデオストリームからCP(Cyc-CP)イベントを検出する。
シーンレベルの検出は、提供されたビデオクリップ内にCPイベントが存在することを確認する。
インスタンスレベルの検出は、CPイベントを発生させるシーン内の特定の車両を特定する。
論文 参考訳(メタデータ) (2023-04-24T07:30:01Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - OPV2V: An Open Benchmark Dataset and Fusion Pipeline for Perception with
Vehicle-to-Vehicle Communication [13.633468133727]
車両から車両への認識のための大規模なオープン・シミュレート・データセットを提示する。
70以上の興味深いシーン、11,464フレーム、232,913個の注釈付き3D車両のバウンディングボックスを含んでいる。
論文 参考訳(メタデータ) (2021-09-16T00:52:41Z) - Euro-PVI: Pedestrian Vehicle Interactions in Dense Urban Centers [126.81938540470847]
歩行者と自転車の軌跡のデータセットであるEuro-PVIを提案する。
本研究では,都市環境におけるエージェント間のマルチモーダル共有潜在空間を表現的に学習する共同推論モデルを開発する。
我々は,エゴ車と歩行者(自転車)の相互作用を正確に予測するために捉えることの重要性を示すnuScenesとEuro-PVIデータセット上での成果を達成した。
論文 参考訳(メタデータ) (2021-06-22T15:40:21Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。