論文の概要: Co-SemDepth: Fast Joint Semantic Segmentation and Depth Estimation on Aerial Images
- arxiv url: http://arxiv.org/abs/2503.17982v1
- Date: Sun, 23 Mar 2025 08:25:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:38:44.080740
- Title: Co-SemDepth: Fast Joint Semantic Segmentation and Depth Estimation on Aerial Images
- Title(参考訳): Co-SemDepth:高速関節セマンティックセグメンテーションと空中画像の深さ推定
- Authors: Yara AlaaEldin, Francesca Odone,
- Abstract要約: 本稿では,空飛ぶロボットの単眼カメラを用いて,非構造環境における深度とセマンティックマップの予測を行う。
本稿では,2つのタスクを正確かつ迅速に実行可能な共同ディープラーニングアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.9883261192383611
- License:
- Abstract: Understanding the geometric and semantic properties of the scene is crucial in autonomous navigation and particularly challenging in the case of Unmanned Aerial Vehicle (UAV) navigation. Such information may be by obtained by estimating depth and semantic segmentation maps of the surrounding environment and for their practical use in autonomous navigation, the procedure must be performed as close to real-time as possible. In this paper, we leverage monocular cameras on aerial robots to predict depth and semantic maps in low-altitude unstructured environments. We propose a joint deep-learning architecture that can perform the two tasks accurately and rapidly, and validate its effectiveness on MidAir and Aeroscapes benchmark datasets. Our joint-architecture proves to be competitive or superior to the other single and joint architecture methods while performing its task fast predicting 20.2 FPS on a single NVIDIA quadro p5000 GPU and it has a low memory footprint. All codes for training and prediction can be found on this link: https://github.com/Malga-Vision/Co-SemDepth
- Abstract(参考訳): シーンの幾何学的および意味的な性質を理解することは、自律的なナビゲーションにおいて不可欠であり、無人航空機(UAV)のナビゲーションでは特に困難である。
このような情報は, 周辺環境の深度とセマンティックセグメンテーションマップを推定し, 自律航法で実用化するためには, 可能な限りリアルタイムに処理を行なわなければならない。
本稿では,低高度非構造環境下での深度・セマンティックマップの予測に単眼カメラを用いる。
本研究では,2つのタスクを正確かつ迅速に実行し,MidAirとAeroscapesのベンチマークデータセット上での有効性を検証可能な共同ディープラーニングアーキテクチャを提案する。
我々の共同アーキテクチャは、ひとつのNVIDIAクオードp5000 GPU上で20.2FPSのタスクを高速に予測し、メモリフットプリントが低く、他のシングルおよびジョイントアーキテクチャ手法よりも競合的あるいは優れていることが証明されている。
トレーニングと予測のためのすべてのコードは、このリンクで見ることができる。
関連論文リスト
- Real-Time Metric-Semantic Mapping for Autonomous Navigation in Outdoor Environments [18.7565126823704]
大規模屋外環境のグローバルなメトリセマンティックメッシュマップを生成するオンラインメトリセマンティックマッピングシステムを提案する。
シナリオスケールに関わらず,フレーム処理は7ms未満で,マッピング処理は例外的な速度を実現する。
実世界のナビゲーションシステムにマップを組み込むことにより,大学構内における測地情報に基づく地形評価と自律的なポイント・ツー・ポイントナビゲーションを実現する。
論文 参考訳(メタデータ) (2024-11-30T00:05:10Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Large-scale Autonomous Flight with Real-time Semantic SLAM under Dense
Forest Canopy [48.51396198176273]
本研究では,大規模自律飛行とリアルタイムセマンティックマッピングを,挑戦的なアンダーキャノピー環境下で実現可能な統合システムを提案する。
我々は、スキャン全体で関連付けられ、木のトランクモデルと同様にロボットのポーズを制約するために使用されるLiDARデータから、木の幹と地面の平面を検出し、モデル化する。
ドリフト補償機構は、プランナー最適性とコントローラ安定性を維持しつつ、セマンティックSLAM出力を用いたドリフトをリアルタイムで最小化するように設計されている。
論文 参考訳(メタデータ) (2021-09-14T07:24:53Z) - Real-Time Monocular Human Depth Estimation and Segmentation on Embedded
Systems [13.490605853268837]
移動中の歩行者に対する衝突回避を実現するためにシーンの深さを推定することは、ロボット分野における決定的かつ基本的な問題である。
本稿では,室内環境における人体深度推定とセグメンテーションを高速かつ高精度に行うための,新しい低複雑性ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-08-24T03:26:08Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation [1.9007546108571112]
画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-13T18:37:38Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。