論文の概要: Monocular Visual 8D Pose Estimation for Articulated Bicycles and Cyclists
- arxiv url: http://arxiv.org/abs/2510.20158v1
- Date: Thu, 23 Oct 2025 03:17:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.226985
- Title: Monocular Visual 8D Pose Estimation for Articulated Bicycles and Cyclists
- Title(参考訳): 人工自転車と自転車の単眼的視覚8次元電位推定
- Authors: Eduardo R. Corral-Soto, Yang Liu, Yuan Ren, Bai Dongfeng, Liu Bingbing,
- Abstract要約: 6次元ポーズ法は, 剛体自転車の3次元回転と翻訳を推定できるが, 自転車の操舵/ペダル角度が変化すると6次元は不十分になる。
本研究では,1枚のRGB画像から,自転車とサイクリストのカテゴリーレベルの8Dポーズ推定手法を提案する。
提案モデルでは,8次元ポーズと3次元キーポイントを共同で推定し,合成画像と実画像データを組み合わせて実画像の一般化を行う。
- 参考スコア(独自算出の注目度): 7.478061205043301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Autonomous Driving, cyclists belong to the safety-critical class of Vulnerable Road Users (VRU), and accurate estimation of their pose is critical for cyclist crossing intention classification, behavior prediction, and collision avoidance. Unlike rigid objects, articulated bicycles are composed of movable rigid parts linked by joints and constrained by a kinematic structure. 6D pose methods can estimate the 3D rotation and translation of rigid bicycles, but 6D becomes insufficient when the steering/pedals angles of the bicycle vary. That is because: 1) varying the articulated pose of the bicycle causes its 3D bounding box to vary as well, and 2) the 3D box orientation is not necessarily aligned to the orientation of the steering which determines the actual intended travel direction. In this work, we introduce a method for category-level 8D pose estimation for articulated bicycles and cyclists from a single RGB image. Besides being able to estimate the 3D translation and rotation of a bicycle from a single image, our method also estimates the rotations of its steering handles and pedals with respect to the bicycle body frame. These two new parameters enable the estimation of a more fine-grained bicycle pose state and travel direction. Our proposed model jointly estimates the 8D pose and the 3D Keypoints of articulated bicycles, and trains with a mix of synthetic and real image data to generalize on real images. We include an evaluation section where we evaluate the accuracy of our estimated 8D pose parameters, and our method shows promising results by achieving competitive scores when compared against state-of-the-art category-level 6D pose estimators that use rigid canonical object templates for matching.
- Abstract(参考訳): 自律運転では、サイクリストは危険道路利用者(VRU)の安全クリティカルクラスに属し、その姿勢の正確な推定は、サイクリストの横断意図の分類、行動予測、衝突回避に不可欠である。
剛体とは違って、関節によって連結され、運動構造によって拘束される可動な剛体部品で構成されている。
6次元ポーズ法は, 剛体自転車の3次元回転と翻訳を推定できるが, 自転車の操舵/ペダル角度が変化すると6次元は不十分になる。
それは、
1) 自転車の明瞭なポーズの変化は、その3Dバウンディングボックスにも変化をもたらし、
2)3Dボックス配向は,実際の意図する走行方向を決定する操舵の配向に必ずしも一致しない。
本研究では,1枚のRGB画像から,自転車とサイクリストのカテゴリーレベルの8Dポーズ推定手法を提案する。
1枚の画像から自転車の3次元翻訳と回転を推定できるだけでなく、自転車本体フレームに対するハンドルハンドルとペダルの回転も推定できる。
これら2つの新しいパラメータにより、よりきめ細かい自転車ポーズ状態と走行方向を推定できる。
提案モデルでは,8次元ポーズと3次元キーポイントを共同で推定し,合成画像と実画像データを組み合わせて実画像の一般化を行う。
提案手法は,提案手法で推定した8次元ポーズパラメータの精度を評価し,整合性のある標準オブジェクトテンプレートを用いた最先端のカテゴリーレベルの6次元ポーズ推定器と比較すると,有望な結果が得られた。
関連論文リスト
- Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - 3DArticCyclists: Generating Synthetic Articulated 8D Pose-Controllable Cyclist Data for Computer Vision Applications [10.047701675476986]
本稿では,異なるタスクのトレーニングデータを生成するために使用できる,合成動的3Dサイクリストデータアセットを生成するフレームワークを提案する。
我々は、選択可能な合成3D人物を再配置することにより、完全な合成3Dサイクリスト(自転車をペダリングするライダー)を構築する。
近年の拡散法と比べ,定性的かつ定量的な結果が得られた。
論文 参考訳(メタデータ) (2024-10-14T17:50:47Z) - MagicDrive: Street View Generation with Diverse 3D Geometry Control [82.69871576797166]
多様な3D幾何学制御を提供する新しいストリートビュー生成フレームワークであるMagicDriveを紹介した。
私たちの設計では、複数のカメラビュー間の一貫性を確保するために、クロスビューアテンションモジュールが組み込まれています。
論文 参考訳(メタデータ) (2023-10-04T06:14:06Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。