論文の概要: Skyshield: Event-Driven Submillimetre Thin Obstacle Detection for Drone Flight Safety
- arxiv url: http://arxiv.org/abs/2508.09397v1
- Date: Wed, 13 Aug 2025 00:26:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.713495
- Title: Skyshield: Event-Driven Submillimetre Thin Obstacle Detection for Drone Flight Safety
- Title(参考訳): Skyshield:ドローン飛行安全のためのイベント駆動サブミリメートルの薄い障害物検出
- Authors: Zhengli Zhang, Xinyu Luo, Yuchen Sun, Wenhua Ding, Dongyu Huang, Xinlei Chen,
- Abstract要約: 本稿では,イベント駆動型エンドツーエンドフレームワークであるSkyShieldについて紹介する。
提案手法では,U-Net アーキテクチャとDice-Contour 正規化損失を用いて精度の高い検出を行う。
- 参考スコア(独自算出の注目度): 23.14173271465947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drones operating in complex environments face a significant threat from thin obstacles, such as steel wires and kite strings at the submillimeter level, which are notoriously difficult for conventional sensors like RGB cameras, LiDAR, and depth cameras to detect. This paper introduces SkyShield, an event-driven, end-to-end framework designed for the perception of submillimeter scale obstacles. Drawing upon the unique features that thin obstacles present in the event stream, our method employs a lightweight U-Net architecture and an innovative Dice-Contour Regularization Loss to ensure precise detection. Experimental results demonstrate that our event-based approach achieves mean F1 Score of 0.7088 with a low latency of 21.2 ms, making it ideal for deployment on edge and mobile platforms.
- Abstract(参考訳): 複雑な環境で作動するドローンは、鋼鉄のワイヤーやkitひもなどの細い障害物から大きな脅威にさらされ、RGBカメラやLiDAR、深度カメラといった従来のセンサーでは検出が難しいことが知られている。
本稿では,イベント駆動型エンドツーエンドフレームワークであるSkyShieldについて紹介する。
イベントストリームに存在する細い障害物のユニークな特徴に基づいて,本手法では軽量なU-Netアーキテクチャと革新的なDice-Contour正規化損失を用いて正確な検出を行う。
実験の結果、私たちのイベントベースのアプローチは、レイテンシが21.2msの0.7088という平均的なF1スコアを実現しており、エッジやモバイルプラットフォームへのデプロイに最適であることが示された。
関連論文リスト
- Autonomous Navigation of Cloud-Controlled Quadcopters in Confined Spaces Using Multi-Modal Perception and LLM-Driven High Semantic Reasoning [0.0]
本稿では,GPSを用いた屋内環境における自律ナビゲーションのための高度なAI駆動認識システムを提案する。
システムは、物体検出用YOLOv11、単眼深度推定用深度任意のV2、タイム・オブ・ライト(ToF)センサーと慣性測定ユニット(IMU)を備えたPCBを統合する。
室内テストベッドにおける実験結果は、平均平均精度(mAP50)が0.6、深さ推定平均絶対誤差(MAE)が7.2cm、エンドツーエンドのシステム遅延が1秒以下で達成された。
論文 参考訳(メタデータ) (2025-08-11T12:00:03Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Monocular Obstacle Avoidance Based on Inverse PPO for Fixed-wing UAVs [29.207513994002202]
固定翼無人航空機(英語: Fixed-wing Unmanned Aerial Vehicles、UAV)は、低高度経済(LAE)と都市空運(UAM)のための最も一般的なプラットフォームの一つである。
従来の地図や高度なセンサーに依存する古典的な障害物回避システムは、未知の低高度環境や小型UAVプラットフォームにおいて制限に直面している。
本稿では,DRLに基づくUAV衝突回避システムを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:03:37Z) - HazyDet: Open-Source Benchmark for Drone-View Object Detection with Depth-Cues in Hazy Scenes [54.24350833692194]
HazyDetは、ヘイジーな環境でドローンビューオブジェクトを検出するために特別に設計された、最初の大規模ベンチマークである。
本稿では,迷路による視覚劣化に対処するため,Depth-Conditioned Detector (DeCoDet)を提案する。
HazyDetは、検出アルゴリズムを前進させるための挑戦的で現実的なテストベッドを提供する。
論文 参考訳(メタデータ) (2024-09-30T00:11:40Z) - ODTFormer: Efficient Obstacle Detection and Tracking with Stereo Cameras Based on Transformer [12.58804521609764]
ODTFormerはTransformerベースのモデルで、障害検出と追跡の両方の問題に対処する。
我々は,最先端の障害物追跡モデルに匹敵する精度を報告し,そのコストはごくわずかである。
論文 参考訳(メタデータ) (2024-03-21T17:59:55Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Vision Guided MIMO Radar Beamforming for Enhanced Vital Signs Detection
in Crowds [26.129503530877006]
本研究では,レーダ内のデジタルビームフォーミングを誘導するために,視覚センサを活用する新しいデュアルセンシングシステムを開発した。
キャリブレーションされた双対システムは、視野内における3次元空間で約2センチメートルの精度を75円×65円で、2メートルの範囲で達成する。
論文 参考訳(メタデータ) (2023-06-18T10:09:16Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。