論文の概要: Image Segmentation to Identify Safe Landing Zones for Unmanned Aerial
Vehicles
- arxiv url: http://arxiv.org/abs/2111.14557v1
- Date: Mon, 29 Nov 2021 14:41:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 23:07:27.562863
- Title: Image Segmentation to Identify Safe Landing Zones for Unmanned Aerial
Vehicles
- Title(参考訳): 無人航空機の安全な着陸地点を識別するための画像分割
- Authors: Joe Kinahan and Alan F. Smeaton
- Abstract要約: 本稿では,UAV上の1台のRGBカメラで撮影した簡単な画像を用いて,安全な着陸地点と安全でない着陸地点を識別する。
ビデオではなく画像で作業することで、人間の介入を必要とせずに、ドローンの安全な着陸ゾーンを特定するのに必要なエネルギーを削減できる。
- 参考スコア(独自算出の注目度): 2.18624447693809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a marked increase in delivery services in urban areas, and with Jeff
Bezos claiming that 86% of the orders that Amazon ships weigh less than 5 lbs,
the time is ripe for investigation into economical methods of automating the
final stage of the delivery process. With the advent of semi-autonomous drone
delivery services, such as Irish startup `Manna', and Malta's `Skymax', the
final step of the delivery journey remains the most difficult to automate. This
paper investigates the use of simple images captured by a single RGB camera on
a UAV to distinguish between safe and unsafe landing zones. We investigate
semantic image segmentation frameworks as a way to identify safe landing zones
and demonstrate the accuracy of lightweight models that minimise the number of
sensors needed. By working with images rather than video we reduce the amount
of energy needed to identify safe landing zones for a drone, without the need
for human intervention.
- Abstract(参考訳): 都市部では配達サービスが著しく増加しており、ジェフ・ベゾス(Jeff Bezos)氏が言うには、Amazonの注文の86%は重量が5ポンド未満である。
アイルランドのスタートアップである 'Manna' や Malta' の ‘Skymax' のような半自律型ドローン配達サービスの出現により、デリバリの最終段階は自動化するのが最も難しいままである。
本稿では,UAV上の1台のRGBカメラで撮影した簡単な画像を用いて,安全ゾーンと安全ゾーンの区別を行う。
安全な着陸ゾーンを識別するための方法として,セマンティックイメージセグメンテーションフレームワークを調査し,必要なセンサ数を最小限にする軽量モデルの精度を示す。
ビデオではなく画像で作業することで、人間の介入なしに、ドローンの安全な着陸ゾーンを特定するのに必要なエネルギーを削減できる。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Towards Real-Time Fast Unmanned Aerial Vehicle Detection Using Dynamic Vision Sensors [6.03212980984729]
無人航空機(UAV)は民間や軍事用途で人気を集めている。
UAVの予防と検出は、機密性と安全性を保証するために重要である。
本稿では,F-UAV-D(Fast Unmanned Aerial Vehicle Detector)を提案する。
論文 参考訳(メタデータ) (2024-03-18T15:27:58Z) - A Precision Drone Landing System using Visual and IR Fiducial Markers
and a Multi-Payload Camera [0.0]
本研究では,広角,ズーム,赤外線センサを備えたジンバル搭載カメラとフィデューシャルマーカーを用いた自律精密ドローン着陸手法を提案する。
この方法は最小限のデータ要件を持ち、主にドローンから着陸台への方向に依存する。
論文 参考訳(メタデータ) (2024-03-06T15:57:56Z) - Traffic Cameras to detect inland waterway barge traffic: An Application
of machine learning [0.0]
そこで本稿では,既存の交通カメラを用いた陸路のバージトラフィック検出手法について述べる。
ディープラーニングモデル、特にYou Only Look Once (YOLO)、Single Shot MultiBox Detector (SSD)、EfficientDetが採用されている。
論文 参考訳(メタデータ) (2024-01-05T21:32:25Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - AirTrack: Onboard Deep Learning Framework for Long-Range Aircraft
Detection and Tracking [3.3773749296727535]
AirTrackは、sUASシステムのサイズ、重量、電力制約を尊重するリアルタイムの視覚のみの検出および追跡フレームワークである。
AirTrackは、Amazon Airborne Object Tracking(AOT)で最先端のアートベースラインを上回ります。
実験による評価から,本システムでは,最大で700mまでの95%以上をトラックできる可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-26T16:58:00Z) - MOBDrone: a Drone Video Dataset for Man OverBoard Rescue [4.393945242867356]
我々は,海洋環境における125万以上のドローンビュー画像の収集であるMOBDroneベンチマークを,いくつかの条件下でリリースした。
私たちは180K以上のオブジェクトを手動でアノテートしました。
我々はMOBDroneデータに基づくいくつかの最先端物体検出器の性能解析を行い、さらなる研究のベースラインとして機能する。
論文 参考訳(メタデータ) (2022-03-15T15:02:23Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。