論文の概要: One-Shot Badminton Shuttle Detection for Mobile Robots
- arxiv url: http://arxiv.org/abs/2603.06691v1
- Date: Wed, 04 Mar 2026 11:47:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.803553
- Title: One-Shot Badminton Shuttle Detection for Mobile Robots
- Title(参考訳): 移動ロボットのワンショットバドミントンシャトル検出
- Authors: Florentin Dipner, William Talbot, Turcan Tuna, Andrei Cramariuc, Marco Hutter,
- Abstract要約: 本稿では,非定常ロボットのためのワンショットバドミントンシャトルコック検出フレームワークを提案する。
20,510個の半自動アノテートフレームのデータセットを導入し,11の異なる背景から抽出した。
ラベル付けには,新しい半自動アノテーションパイプラインを提案する。
- 参考スコア(独自算出の注目度): 6.253184808172025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a robust one-shot badminton shuttlecock detection framework for non-stationary robots. To address the lack of egocentric shuttlecock detection datasets, we introduce a dataset of 20,510 semi-automatically annotated frames captured across 11 distinct backgrounds in diverse indoor and outdoor environments, and categorize each frame into one of three difficulty levels. For labeling, we present a novel semi-automatic annotation pipeline, that enables efficient labeling from stationary camera footage. We propose a metric suited to our downstream use case and fine-tune a YOLOv8 network optimized for real-time shuttlecock detection, achieving an F1-score of 0.86 under our metric in test environments similar to training, and 0.70 in entirely unseen environments. Our analysis reveals that detection performance is critically dependent on shuttlecock size and background texture complexity. Qualitative experiments confirm their applicability to robots with moving cameras. Unlike prior work with stationary camera setups, our detector is specifically designed for the egocentric, dynamic viewpoints of mobile robots, providing a foundational building block for downstream tasks, including tracking, trajectory estimation, and system (re)-initialization.
- Abstract(参考訳): 本稿では,非定常ロボットのための頑健なワンショットバドミントンシャトルコック検出フレームワークを提案する。
自己中心型シャトルコック検出データセットの欠如に対処するため、屋内および屋外の多様な環境において、11の異なる背景から収集された20,510個の半自動注釈付きフレームのデータセットを導入し、各フレームを3つの難易度のうちの1つに分類した。
ラベリングには、静止カメラ映像からの効率的なラベリングを可能にする、新しい半自動アノテーションパイプラインを提案する。
我々は,我々の下流のユースケースに適したメトリクスを提案し,リアルタイムシャトルコック検出に最適化されたYOLOv8ネットワークを微調整し,トレーニングと同様のテスト環境ではF1スコア0.86,全く見えない環境では0.70を達成した。
解析の結果,検出性能はシャトルコックの大きさと背景テクスチャの複雑さに大きく依存していることが判明した。
定性的実験は、動くカメラを備えたロボットに適用可能であることを確認する。
静止カメラと異なり、我々の検出器は移動ロボットのエゴセントリックでダイナミックな視点のために特別に設計されており、トラッキング、軌道推定、システム(re)初期化などの下流タスクのための基礎的なビルディングブロックを提供する。
関連論文リスト
- Robometer: Scaling General-Purpose Robotic Reward Models via Trajectory Comparisons [69.87766750714945]
汎用ロボット報酬モデルは通常、専門家によるデモンストレーションから絶対的なタスク進捗を予測するために訓練される。
本稿では、軌道内進行監視と軌道間優先監視を組み合わせたスケーラブルな報酬モデリングフレームワークRobometerを紹介する。
ロビオメーターは、専門家データに報酬等級を固定するフレームレベルのプログレス・ロスと、グローバルな順序制約を課す軌跡比較優先損失という2つの目的で訓練されている。
論文 参考訳(メタデータ) (2026-03-02T17:38:58Z) - Radar and Event Camera Fusion for Agile Robot Ego-Motion Estimation [20.459131058788568]
ロボットの移動速度を積極的に推定するためのIMUフリー・機能連想フリーフレームワークを提案する。
瞬時生イベントとドップラー計測を用いて、回転速度と翻訳速度を直接導出する。
本研究では,時間と事象を併用した連続時間状態空間モデルを提案し,よりスムーズな方法でエゴ運動速度を推定する。
論文 参考訳(メタデータ) (2025-06-23T09:27:22Z) - ARC-Calib: Autonomous Markerless Camera-to-Robot Calibration via Exploratory Robot Motions [15.004750210002152]
ARC-Calibはモデルベースのマーカーレスカメラ・ロボットキャリブレーションフレームワークである。
完全に自律的で、多様なロボットにまたがって一般化できる。
論文 参考訳(メタデータ) (2025-03-18T20:03:32Z) - YO-CSA-T: A Real-time Badminton Tracking System Utilizing YOLO Based on Contextual and Spatial Attention [0.0]
YO-CSAは、3Dシャトルコックのリアルタイム軌道検出システムである。
YO-CSAによって抽出された2次元座標列を立体視を用いて3次元空間にマッピングする。
精度は90.43% mAP@0.75で、YOLOv8sとYOLO11sを上回ります。
論文 参考訳(メタデータ) (2025-01-11T08:00:25Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。