論文の概要: DroneKey++: A Size Prior-free Method and New Benchmark for Drone 3D Pose Estimation from Sequential Images
- arxiv url: http://arxiv.org/abs/2602.06211v1
- Date: Thu, 05 Feb 2026 21:41:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.12003
- Title: DroneKey++: A Size Prior-free Method and New Benchmark for Drone 3D Pose Estimation from Sequential Images
- Title(参考訳): DroneKey++: シークエンシャル画像からのドローン3D画像推定のためのサイズ優先の手法と新しいベンチマーク
- Authors: Seo-Bin Hwang, Yeong-Jun Cho,
- Abstract要約: DroneKey++は、キーポイント検出、ドローン分類、および3Dポーズ推定を共同で実行する、事前フリーのフレームワークである。
データセットの制限に対処するため、6DroneSynという大規模な合成ベンチマークを構築し、7つのドローンモデルと88の屋外背景を50K以上の画像でカバーする。
実験の結果、DroneKey++はMAE 17.34 deg、MedAE 17.1 degはローテーション、MAE 0.135 m、MedAE 0.242 mが翻訳された。
- 参考スコア(独自算出の注目度): 1.7188280334580195
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate 3D pose estimation of drones is essential for security and surveillance systems. However, existing methods often rely on prior drone information such as physical sizes or 3D meshes. At the same time, current datasets are small-scale, limited to single models, and collected under constrained environments, which makes reliable validation of generalization difficult. We present DroneKey++, a prior-free framework that jointly performs keypoint detection, drone classification, and 3D pose estimation. The framework employs a keypoint encoder for simultaneous keypoint detection and classification, and a pose decoder that estimates 3D pose using ray-based geometric reasoning and class embeddings. To address dataset limitations, we construct 6DroneSyn, a large-scale synthetic benchmark with over 50K images covering 7 drone models and 88 outdoor backgrounds, generated using 360-degree panoramic synthesis. Experiments show that DroneKey++ achieves MAE 17.34 deg and MedAE 17.1 deg for rotation, MAE 0.135 m and MedAE 0.242 m for translation, with inference speeds of 19.25 FPS (CPU) and 414.07 FPS (GPU), demonstrating both strong generalization across drone models and suitability for real-time applications. The dataset is publicly available.
- Abstract(参考訳): ドローンの正確な3Dポーズ推定は、セキュリティと監視システムに不可欠である。
しかし、既存の手法は、物理サイズや3Dメッシュといった以前のドローン情報に依存していることが多い。
同時に、現在のデータセットは小規模であり、単一のモデルに限定され、制約された環境下で収集されるため、一般化の信頼性の高い検証が困難である。
我々は,キーポイント検出,ドローン分類,3Dポーズ推定を共同で行う,事前自由なフレームワークであるDroneKey++を提案する。
このフレームワークは、キーポイント検出と分類を同時に行うキーポイントエンコーダと、レイベースの幾何学的推論とクラス埋め込みを用いて3次元ポーズを推定するポーズデコーダを使用する。
データセットの制限に対処するため、360度パノラマ合成を用いて生成された6DroneSynは、ドローンモデル7つと屋外背景88点をカバーする50K以上の画像を持つ大規模な合成ベンチマークである。
実験の結果、DroneKey++はローテーション用のMAE 17.34 degとMedAE 17.1 deg、翻訳用のMAE 0.135 mとMedAE 0.242 mを実現しており、推論速度は19.25 FPS(CPU)と414.07 FPS(GPU)で、ドローンモデル全体の強力な一般化とリアルタイムアプリケーションへの適合性を実証している。
データセットは公開されている。
関連論文リスト
- Beyond 'Templates': Category-Agnostic Object Pose, Size, and Shape Estimation from a Single View [69.6117755984012]
物体の6Dポーズ、サイズ、形状を視覚入力から推定することは、コンピュータビジョンの基本的な問題である。
一つのRGB-D画像から6次元のポーズ,サイズ,密な形状を同時に予測する統合されたカテゴリ非依存フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-13T17:49:15Z) - DroneKey: Drone 3D Pose Estimation in Image Sequences using Gated Key-representation and Pose-adaptive Learning [1.7188280334580195]
DroneKeyは、2Dキーポイント検出器とドローン用に設計された3Dポーズ推定器を組み合わせたフレームワークだ。
実験により,本手法はキーポイント検出において99.68%(OKS)のAPを達成し,既存手法より優れていることが示された。
3次元ポーズ推定では10.62degのMAE角,0.221mのRMSE,0.076mのMAE絶対値を得た。
論文 参考訳(メタデータ) (2025-08-25T07:40:31Z) - E3D-Bench: A Benchmark for End-to-End 3D Geometric Foundation Models [78.1674905950243]
3次元幾何学基礎モデル(GFM)の総合ベンチマークを初めて提示する。
GFMは、単一のフィードフォワードパスで密度の高い3D表現を直接予測し、スローまたは未使用のカメラパラメータを不要にする。
我々は16の最先端GFMを評価し、タスクやドメイン間の長所と短所を明らかにした。
すべてのコード、評価スクリプト、処理されたデータは公開され、3D空間インテリジェンスの研究が加速される。
論文 参考訳(メタデータ) (2025-06-02T17:53:09Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。