論文の概要: DeepDarts: Modeling Keypoints as Objects for Automatic Scorekeeping in
Darts using a Single Camera
- arxiv url: http://arxiv.org/abs/2105.09880v1
- Date: Thu, 20 May 2021 16:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:47:46.600550
- Title: DeepDarts: Modeling Keypoints as Objects for Automatic Scorekeeping in
Darts using a Single Camera
- Title(参考訳): deepdarts: 単一のカメラによるdartの自動スコアキーピングのためのオブジェクトとしてのキーポイントのモデリング
- Authors: William McNally, Pascale Walters, Kanav Vats, Alexander Wong, John
McPhee
- Abstract要約: 既存のマルチカメラソリューションは、スチールチップダーツの自動スコア管理に非常に高価であり、ほとんどのプレイヤーにはアクセスできない。
キーポイント検出に対する新しいアプローチを提案し,任意のカメラアングルから撮影した単一の画像からダートスコアを予測する。
我々は、このアイデアにまつわる深い畳み込みニューラルネットワークを開発し、ダート位置とダートボードの校正点を予測する。
- 参考スコア(独自算出の注目度): 75.34178733070547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing multi-camera solutions for automatic scorekeeping in steel-tip darts
are very expensive and thus inaccessible to most players. Motivated to develop
a more accessible low-cost solution, we present a new approach to keypoint
detection and apply it to predict dart scores from a single image taken from
any camera angle. This problem involves detecting multiple keypoints that may
be of the same class and positioned in close proximity to one another. The
widely adopted framework for regressing keypoints using heatmaps is not
well-suited for this task. To address this issue, we instead propose to model
keypoints as objects. We develop a deep convolutional neural network around
this idea and use it to predict dart locations and dartboard calibration points
within an overall pipeline for automatic dart scoring, which we call DeepDarts.
Additionally, we propose several task-specific data augmentation strategies to
improve the generalization of our method. As a proof of concept, two datasets
comprising 16k images originating from two different dartboard setups were
manually collected and annotated to evaluate the system. In the primary dataset
containing 15k images captured from a face-on view of the dartboard using a
smartphone, DeepDarts predicted the total score correctly in 94.7% of the test
images. In a second more challenging dataset containing limited training data
(830 images) and various camera angles, we utilize transfer learning and
extensive data augmentation to achieve a test accuracy of 84.0%. Because
DeepDarts relies only on single images, it has the potential to be deployed on
edge devices, giving anyone with a smartphone access to an automatic dart
scoring system for steel-tip darts. The code and datasets are available.
- Abstract(参考訳): 既存のsteel-tip dartの自動スコアキーピングのためのマルチカメラソリューションは非常に高価であり、ほとんどのプレイヤーにはアクセスできない。
よりアクセスしやすい低コストのソリューションを開発するために、キーポイント検出の新しいアプローチを提案し、任意のカメラアングルから撮影した単一の画像からダートスコアを予測する。
この問題は、同じクラスに属し、互いに近接している複数のキーポイントを検出することである。
heatmapsを使ってキーポイントをリグレッシブするための広く採用されているフレームワークは、このタスクには適していない。
この問題に対処するために、代わりにキーポイントをオブジェクトとしてモデル化することを提案します。
私たちは、このアイデアにまつわる深い畳み込みニューラルネットワークを開発し、それを使って、パイプライン全体のダート位置とダートボードキャリブレーションポイントを予測し、自動ダートスコアを作成します。
さらに,本手法の一般化を改善するために,タスク固有のデータ拡張戦略を提案する。
概念実証として、2つの異なるダーツボード構成から16kの画像からなる2つのデータセットを手動で収集し、システム評価を行った。
スマートフォンを使ってダーツボードの顔から撮影した15kの画像を含む一次データセットにおいて、DeepDartsはテスト画像の94.7%でスコアを正確に予測した。
限られたトレーニングデータ(830画像)と様々なカメラアングルを含む第2のより困難なデータセットでは、転送学習と広範なデータ拡張を使用して、テスト精度84.0%を達成する。
deepdartsは単一のイメージのみに依存しているため、エッジデバイスにデプロイする可能性があり、スマートフォンを持っている人なら誰でも、スチールチップダーツ用の自動dartスコアリングシステムにアクセスできる。
コードとデータセットは利用可能だ。
関連論文リスト
- FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - X-Pose: Detecting Any Keypoints [28.274913140048003]
X-Poseは画像内の複数オブジェクトのキーポイント検出のための新しいフレームワークである。
UniKPTはキーポイント検出データセットの大規模なデータセットである。
X-Poseは、最先端の非プロンプタブル、視覚的プロンプトベース、テキスト的プロンプトベースメソッドに対する顕著な改善を実現している。
論文 参考訳(メタデータ) (2023-10-12T17:22:58Z) - OmniPD: One-Step Person Detection in Top-View Omnidirectional Indoor
Scenes [4.297070083645049]
畳み込みニューラルネット(CNN)を用いた一段階一方向屋内シーン検出法を提案する。
本手法は、視点変換を伴わない全方位画像において、複数の人物の境界ボックスを直接予測する。
本手法は他のCNNベースの物体検出器にも適用可能であり,全方位画像における他の物体の検出に応用できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-04-14T09:41:53Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Structure-Aware Network for Lane Marker Extraction with Dynamic Vision
Sensor [14.55881454495574]
レーンマーカー抽出タスクにイベントベースのセンサの一種であるDynamic Vision Sensor (DVS)を導入する。
レーンマーカー抽出のための高分解能DVSデータセットを1280$times$800ピクセルで生成する。
次に,DVS画像におけるレーンマーカー抽出のための構造認識ネットワークを提案する。
提案するネットワークを,本データセット上の他の最先端レーンマーカー抽出モデルを用いて評価する。
論文 参考訳(メタデータ) (2020-08-14T06:28:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。