論文の概要: Long-Distance Field Demonstration of Imaging-Free Drone Identification in Intracity Environments
- arxiv url: http://arxiv.org/abs/2504.20097v1
- Date: Sat, 26 Apr 2025 07:36:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.583749
- Title: Long-Distance Field Demonstration of Imaging-Free Drone Identification in Intracity Environments
- Title(参考訳): 都市内環境における画像不要ドローン識別の長距離フィールド実証
- Authors: Junran Guo, Tonglin Mu, Keyuan Li, Jianing Li, Ziyang Luo, Ye Chen, Xiaodong Fan, Jinquan Huang, Minjie Liu, Jinbei Zhang, Ruoyang Qi, Naiting Gu, Shihai Sun,
- Abstract要約: 残差ニューラルネットワーク(ResNet)とtextDtextsuperscript2SPtextsuperscript2-LiDARを新たに統合する。
本手法は,弱い信号条件下であっても94.93%の識別精度と97.99%の型分類精度を実現する。
これらの知見は,小目標の高強度長距離検出のための非撮像法の可能性を強調した。
- 参考スコア(独自算出の注目度): 15.347530074931989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting small objects, such as drones, over long distances presents a significant challenge with broad implications for security, surveillance, environmental monitoring, and autonomous systems. Traditional imaging-based methods rely on high-resolution image acquisition, but are often constrained by range, power consumption, and cost. In contrast, data-driven single-photon-single-pixel light detection and ranging (\text{D\textsuperscript{2}SP\textsuperscript{2}-LiDAR}) provides an imaging-free alternative, directly enabling target identification while reducing system complexity and cost. However, its detection range has been limited to a few hundred meters. Here, we introduce a novel integration of residual neural networks (ResNet) with \text{D\textsuperscript{2}SP\textsuperscript{2}-LiDAR}, incorporating a refined observation model to extend the detection range to 5~\si{\kilo\meter} in an intracity environment while enabling high-accuracy identification of drone poses and types. Experimental results demonstrate that our approach not only outperforms conventional imaging-based recognition systems, but also achieves 94.93\% pose identification accuracy and 97.99\% type classification accuracy, even under weak signal conditions with long distances and low signal-to-noise ratios (SNRs). These findings highlight the potential of imaging-free methods for robust long-range detection of small targets in real-world scenarios.
- Abstract(参考訳): ドローンのような小さな物体を長距離で検出することは、セキュリティ、監視、環境監視、自律システムといった幅広い意味を持つ重要な課題である。
従来の画像ベースの手法は高解像度の画像取得に依存しているが、しばしば範囲、消費電力、コストに制約される。
対照的に、データ駆動の単一光子シングルピクセル光検出と測光(\text{D\textsuperscript{2}SP\textsuperscript{2}-LiDAR})は、システムの複雑さとコストを低減しつつ、ターゲットの識別を直接可能にし、画像のない代替手段を提供する。
しかし、検出範囲は数百メートルに制限されている。
本稿では,残留ニューラルネットワーク (ResNet) と \text{D\textsuperscript{2}SP\textsuperscript{2}-LiDAR} の新たな統合について紹介する。
実験の結果,従来の画像認識システムよりも94.93\%の識別精度と97.99\%の型分類精度を,長距離信号条件や低信号-雑音比(SNR)の下でも達成できることがわかった。
これらの結果は、実世界のシナリオにおいて、小さなターゲットの堅牢な長距離検出のための画像のない手法の可能性を強調している。
関連論文リスト
- A Multi-Sensor Fusion Approach for Rapid Orthoimage Generation in Large-Scale UAV Mapping [3.321306647655686]
グローバル測位システム(GPS)、慣性計測ユニット(IMU)、4Dミリ波レーダとカメラを統合したマルチセンサUAVシステムにより、この問題に対する効果的な解決策を提供することができる。
予め最適化された特徴マッチング手法を導入し、マッチング速度と精度を向上させる。
実験の結果,提案手法は短時間で正確な特徴マッチングを実現できることがわかった。
論文 参考訳(メタデータ) (2025-03-03T05:55:30Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - Physical-Layer Semantic-Aware Network for Zero-Shot Wireless Sensing [74.12670841657038]
デバイスレスワイヤレスセンシングは、幅広い没入型人間機械対話型アプリケーションをサポートする可能性から、近年、大きな関心を集めている。
無線信号におけるデータの均一性と分散センシングにおけるデータプライバシ規制は、広域ネットワークシステムにおける無線センシングの広範な適用を妨げる主要な課題であると考えられている。
そこで本研究では,ラベル付きデータを使わずに,一箇所ないし限られた箇所で構築されたモデルを直接他の場所に転送できるゼロショット無線センシングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-08T13:50:30Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - Enhanced Single-shot Detector for Small Object Detection in Remote
Sensing Images [33.84369068593722]
小型物体検出のための画像ピラミッド単発検出器(IPSSD)を提案する。
IPSSDでは、単一ショット検出器と画像ピラミッドネットワークを組み合わせて、候補領域を生成するための意味的に強い特徴を抽出する。
提案するネットワークは,特徴ピラミッドネットワークから小規模な特徴を拡張できる。
論文 参考訳(メタデータ) (2022-05-12T07:35:07Z) - Learning-based Localizability Estimation for Robust LiDAR Localization [13.298113481670038]
LiDARベースのローカライゼーションとマッピングは、多くの現代のロボットシステムにおける中核的なコンポーネントの1つである。
本研究では,ロボット動作中の(非)局所性を検出するニューラルネットワークに基づく推定手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T01:12:00Z) - A high performance fingerprint liveness detection method based on
quality related features [66.41574316136379]
このシステムは、10,500枚以上の実画像と偽画像からなる非常に難しいデータベースでテストされている。
提案手法はマルチシナリオデータセットに対して堅牢であることが証明され、全体の90%が正しく分類されたサンプルである。
論文 参考訳(メタデータ) (2021-11-02T21:09:39Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - Localizing Grouped Instances for Efficient Detection in Low-Resource
Scenarios [27.920304852537534]
可変物体の大きさや密度に適応するフレキシブルな検出手法を提案する。
我々は検出段階の連続に頼り、それぞれが個人だけでなく、対象の群を予測できる能力を持っている。
本稿では,2つの航空画像データセットの実験結果について報告し,提案手法が標準単発検出器よりも精度が高く,計算効率も高いことを示す。
論文 参考訳(メタデータ) (2020-04-27T07:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。