論文の概要: UCorr: Wire Detection and Depth Estimation for Autonomous Drones
- arxiv url: http://arxiv.org/abs/2509.14989v1
- Date: Thu, 18 Sep 2025 14:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.264549
- Title: UCorr: Wire Detection and Depth Estimation for Autonomous Drones
- Title(参考訳): UCorr: 自律ドローンのワイヤ検出と深さ推定
- Authors: Benedikt Kolbeinsson, Krystian Mikolajczyk,
- Abstract要約: ワイヤセグメンテーションと深さ推定のためのモノクラーエンド・ツー・エンド・モデルとして,革新的な解を提案する。
我々の結果は、自律ドローンの安全性と精度を高めるための我々のモデルの可能性を強調している。
- 参考スコア(独自算出の注目度): 21.17452901550825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of fully autonomous drones, the accurate detection of obstacles is paramount to ensure safe navigation and prevent collisions. Among these challenges, the detection of wires stands out due to their slender profile, which poses a unique and intricate problem. To address this issue, we present an innovative solution in the form of a monocular end-to-end model for wire segmentation and depth estimation. Our approach leverages a temporal correlation layer trained on synthetic data, providing the model with the ability to effectively tackle the complex joint task of wire detection and depth estimation. We demonstrate the superiority of our proposed method over existing competitive approaches in the joint task of wire detection and depth estimation. Our results underscore the potential of our model to enhance the safety and precision of autonomous drones, shedding light on its promising applications in real-world scenarios.
- Abstract(参考訳): 完全自律ドローンの世界では、障害物の正確な検出が最重要であり、安全なナビゲーションと衝突の防止が図られている。
これらの課題の中で、ワイヤの検出は細いプロファイルのため際立っており、これはユニークで複雑な問題を引き起こす。
この問題に対処するため,ワイヤ分割と深さ推定のためのモノクラーエンド・ツー・エンド・モデルとして,革新的な解を提案する。
提案手法では,合成データに基づいて訓練した時間相関層を利用して,ワイヤー検出と深さ推定の複雑な共同作業に効果的に取り組むことができる。
有線検出と深度推定の協調作業における既存の競合手法よりも提案手法の方が優れていることを示す。
我々の結果は、我々のモデルが自律ドローンの安全性と精度を高める可能性を強調し、現実のシナリオにおける有望な応用に光を当てている。
関連論文リスト
- TanDepth: Leveraging Global DEMs for Metric Monocular Depth Estimation in UAVs [5.6168844664788855]
本研究は,推定時間における相対的推定から距離深度を求めるための実用的スケール回復手法であるTanDepthを提示する。
提案手法は,GDEM(Global Digital Elevation Models)のスパース計測をカメラビューに投影することで活用する。
推定深度マップから接地点を選択して、投影された基準点と相関するクラスフィルタシミュレーションへの適応を示す。
論文 参考訳(メタデータ) (2024-09-08T15:54:43Z) - An Attention-Based Deep Generative Model for Anomaly Detection in Industrial Control Systems [3.303448701376485]
異常検出は、産業制御システムの安全かつ信頼性の高い運用に不可欠である。
本稿では,このニーズを満たすための新しい深層生成モデルを提案する。
論文 参考訳(メタデータ) (2024-05-03T23:58:27Z) - Label-Efficient 3D Object Detection For Road-Side Units [10.663986706501188]
協調的知覚は、インテリジェント・ロードサイド・ユニット(RSU)との深部情報融合による自動運転車の知覚を高める
これらの手法は、特に注釈付きRSUデータを必要とするため、実際のデプロイメントにおいて大きなハードルを生んでいる。
教師なしオブジェクト発見に基づくRSUのためのラベル効率の高いオブジェクト検出手法を考案する。
論文 参考訳(メタデータ) (2024-04-09T12:29:16Z) - EC-Depth: Exploring the consistency of self-supervised monocular depth estimation in challenging scenes [36.44321460703116]
EC-Depthは、堅牢な深さ推定を実現するための、新しい自己教師型2段階フレームワークである。
第1段階では、信頼性の高い監督を標準から挑戦的な場面に広めるために、奥行き整合正則化を提案する。
第2段階では、疑似ラベルの品質を向上させるために、一貫性に基づく新しい擬似ラベルフィルタリング戦略を採用する。
論文 参考訳(メタデータ) (2023-10-12T05:34:45Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - The RoboDepth Challenge: Methods and Advancements Towards Robust Depth Estimation [97.63185634482552]
我々は,RoboDepth Challengeの優勝ソリューションを要約する。
この課題は、堅牢なOoD深度推定を容易にし、前進させるように設計された。
この課題が、堅牢で信頼性の高い深度推定に関する将来の研究の基盤となることを願っている。
論文 参考訳(メタデータ) (2023-07-27T17:59:56Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Surveillance Evasion Through Bayesian Reinforcement Learning [78.79938727251594]
ランダム終端の強度が全く不明な2次元連続経路計画問題を考える。
これらのオブザーバーの監視強度は未知であり、反復的な経路計画を通じて学ぶ必要がある。
論文 参考訳(メタデータ) (2021-09-30T02:29:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。