論文の概要: A Computer Vision Pipeline for Iterative Bullet Hole Tracking in Rifle Zeroing
- arxiv url: http://arxiv.org/abs/2601.17062v1
- Date: Thu, 22 Jan 2026 15:52:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.110588
- Title: A Computer Vision Pipeline for Iterative Bullet Hole Tracking in Rifle Zeroing
- Title(参考訳): リフレゼロリングにおける反復噴孔追跡のためのコンピュータビジョンパイプライン
- Authors: Robert M. Belcher, Brendan C. Degryse, Leonard R. Kosta, Christopher J. Lowrance,
- Abstract要約: 本稿では,自動弾孔検出と反復追跡のためのエンドツーエンドコンピュータビジョンシステムを提案する。
本システムでは, 弾孔検出における平均精度97.0%, 弾孔を適切な発射繰り返しに割り当てる精度88.8%を実現している。
ライフルゼロ化のために設計されたこのフレームワークは、視覚的に類似した物体の時間差を必要とする領域において、より広い適用性を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Adjusting rifle sights, a process commonly called "zeroing," requires shooters to identify and differentiate bullet holes from multiple firing iterations. Traditionally, this process demands physical inspection, introducing delays due to range safety protocols and increasing the risk of human error. We present an end-to-end computer vision system for automated bullet hole detection and iteration-based tracking directly from images taken at the firing line. Our approach combines YOLOv8 for accurate small-object detection with Intersection over Union (IoU) analysis to differentiate bullet holes across sequential images. To address the scarcity of labeled sequential data, we propose a novel data augmentation technique that removes rather than adds objects to simulate realistic firing sequences. Additionally, we introduce a preprocessing pipeline that standardizes target orientation using ORB-based perspective correction, improving model accuracy. Our system achieves 97.0% mean average precision on bullet hole detection and 88.8% accuracy in assigning bullet holes to the correct firing iteration. While designed for rifle zeroing, this framework offers broader applicability in domains requiring the temporal differentiation of visually similar objects.
- Abstract(参考訳): ライフル照準の調整は一般的に「ゼロイング」と呼ばれるプロセスであり、銃手は複数の発射イテレーションから弾丸の穴を識別して区別する必要がある。
伝統的に、このプロセスは物理的検査を必要とし、レンジセーフティプロトコルによる遅延を発生させ、ヒューマンエラーのリスクを増大させる。
発射ラインで撮影された画像から直接弾孔の自動検出と反復追跡を行うエンド・ツー・エンドのコンピュータビジョンシステムを提案する。
本手法では, YOLOv8とIoU (Intersection over Union) 解析を併用して, 連続画像間の弾丸孔の識別を行う。
ラベル付きシーケンシャルデータの不足に対処するため、現実的な発射シーケンスをシミュレートするオブジェクトを追加するのではなく、除去する新しいデータ拡張手法を提案する。
さらに、ORBに基づく視点補正を用いて目標方向を標準化する前処理パイプラインを導入し、モデルの精度を向上する。
本システムでは, 弾孔検出における平均精度97.0%, 弾孔を適切な発射繰り返しに割り当てる精度88.8%を実現している。
ライフルゼロ化のために設計されたこのフレームワークは、視覚的に類似した物体の時間差を必要とする領域において、より広い適用性を提供する。
関連論文リスト
- Deciphering GunType Hierarchy through Acoustic Analysis of Gunshot Recordings [72.55205022155394]
銃乱射事件や銃乱射事件は公共の安全にとって重大な脅威である。
現在の商用の銃弾検出システムは有効だが、しばしば禁止費用がかかる。
本研究は, ショット記録の音響解析を活用することで, 費用対効果について検討する。
論文 参考訳(メタデータ) (2025-06-25T17:00:21Z) - SparseFormer: Detecting Objects in HRW Shots via Sparse Vision Transformer [62.11796778482088]
本稿では,近接撮影とHRW撮影のオブジェクト検出のギャップを埋めるために,SparseFormerと呼ばれるモデル非依存のスパース視覚変換器を提案する。
提案されたSparseFormerは、オブジェクトを含む可能性のあるスパース分散ウィンドウを精査するために、注意トークンを選択的に使用する。
2つのHRWベンチマークであるPANDAとDOTA-v1.0の実験により、提案されたSparseFormerは、最先端のアプローチよりも検出精度(最大5.8%)と速度(最大3倍)を大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-02-11T03:21:25Z) - Efficient Single Object Detection on Image Patches with Early Exit
Enhanced High-Precision CNNs [0.0]
本稿では,RoboCup Standard Platform Leagueの文脈における移動ロボットを用いた物体検出手法を提案する。
この課題は、様々な照明条件と高速な動きによって引き起こされるぼやけた画像において、ダイナミックな物体を検出することである。
この課題に対処するために,計算に制約のあるロボットプラットフォーム用に設計された畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-09-07T07:23:55Z) - Obscured Wildfire Flame Detection By Temporal Analysis of Smoke Patterns
Captured by Unmanned Aerial Systems [0.799536002595393]
本研究は,RGBカメラのみを搭載したドローンを用いて,隠された山火事をリアルタイムに検出する課題について論じる。
本稿では,ビデオシーケンス中の煙のパターンの時間的解析に基づくセマンティックセグメンテーションを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-30T19:45:43Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - ZSD-YOLO: Zero-Shot YOLO Detection using Vision-Language
KnowledgeDistillation [5.424015823818208]
COCOのようなデータセットは、多くの画像に広く注釈付けされているが、多数のカテゴリがあり、さまざまなドメインにまたがるすべてのオブジェクトクラスに注釈を付けるのは高価で難しい。
我々は,CLIPのようなゼロショット事前学習モデルからの画像とテキストの埋め込みを,YOLOv5のような一段検出器からの修正意味予測ヘッドに整合させるビジョン・ランゲージ蒸留法を開発した。
推論中、我々のモデルは追加のトレーニングなしで任意の数のオブジェクトクラスを検出するように適応できる。
論文 参考訳(メタデータ) (2021-09-24T16:46:36Z) - StrObe: Streaming Object Detection from LiDAR Packets [73.27333924964306]
ローリングシャッターのLiDARはパケットのストリームとして出力され、それぞれ360degのカバレッジのセクターをカバーする。
現代の認識アルゴリズムは、データを処理する前に全スイープが構築されるのを待つ。
本稿では,LiDARパケットを取り込み,全スイープが構築されるのを待たずに検出ストリームを出力することで,レイテンシを最小化する新しいアプローチであるStrObeを提案する。
論文 参考訳(メタデータ) (2020-11-12T14:57:44Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。