論文の概要: MESSI: A Multi-Elevation Semantic Segmentation Image Dataset of an Urban Environment
- arxiv url: http://arxiv.org/abs/2505.08589v1
- Date: Tue, 13 May 2025 14:01:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.597094
- Title: MESSI: A Multi-Elevation Semantic Segmentation Image Dataset of an Urban Environment
- Title(参考訳): 都市環境の多面的セマンティックセマンティック画像データセットMESSI
- Authors: Barak Pinkovich, Boaz Matalon, Ehud Rivlin, Hector Rotstein,
- Abstract要約: データセットは2525枚の画像で構成されます 密集した都市上空を飛ぶドローンによって
MESSIには、位置、向き、カメラ固有のパラメータが付加された画像が含まれている。
パブリックドメインで公開され、密集した都市環境を飛行するドローンや類似車両によって撮影された画像を使用してセマンティックセグメンテーションの評価ベンチマークとして機能する予定である。
- 参考スコア(独自算出の注目度): 1.2885886448586579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a Multi-Elevation Semantic Segmentation Image (MESSI) dataset comprising 2525 images taken by a drone flying over dense urban environments. MESSI is unique in two main features. First, it contains images from various altitudes, allowing us to investigate the effect of depth on semantic segmentation. Second, it includes images taken from several different urban regions (at different altitudes). This is important since the variety covers the visual richness captured by a drone's 3D flight, performing horizontal and vertical maneuvers. MESSI contains images annotated with location, orientation, and the camera's intrinsic parameters and can be used to train a deep neural network for semantic segmentation or other applications of interest (e.g., localization, navigation, and tracking). This paper describes the dataset and provides annotation details. It also explains how semantic segmentation was performed using several neural network models and shows several relevant statistics. MESSI will be published in the public domain to serve as an evaluation benchmark for semantic segmentation using images captured by a drone or similar vehicle flying over a dense urban environment.
- Abstract(参考訳): 本稿では,高密度都市上空を飛行するドローンが撮影した2525枚の画像からなるマルチエレベーション・セマンティック・セマンティック・セマンティック・セマンティック・イメージ(MESSI)データセットを提案する。
MESSIは2つの主要な特徴がある。
まず, 様々な高度からの画像を含むことで, セマンティックセグメンテーションにおける深度の影響を調べることができる。
第2に、いくつかの異なる都市部(異なる高度)から撮影された画像が含まれる。
ドローンの3D飛行によって捉えられた視覚的豊かさをカバーし、水平および垂直の操作を行うため、これは重要である。
MESSIには、位置、方向、カメラ固有のパラメータを付加したイメージが含まれており、セマンティックセグメンテーションやその他の興味ある応用(例えば、ローカライゼーション、ナビゲーション、トラッキング)のためのディープニューラルネットワークのトレーニングに使用することができる。
本稿では、データセットを記述し、アノテーションの詳細を提供する。
また、セマンティックセグメンテーションがいくつかのニューラルネットワークモデルを使用してどのように実行されたかを説明し、いくつかの関連する統計情報を示している。
MESSIはパブリックドメインで公開され、密集した都市環境を飛行するドローンや類似車両によって撮影された画像を用いてセマンティックセグメンテーションの評価ベンチマークとして機能する。
関連論文リスト
- SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Aerial Lifting: Neural Urban Semantic and Building Instance Lifting from Aerial Imagery [51.73680703579997]
航空画像から都市規模のセマンティックスとビルレベルのインスタンスセグメンテーションのためのニューラルラジアンスフィールド法を提案する。
都市空撮画像の物体は、建物、車、道路など、相当な大きさのバリエーションを示している。
我々は,様々な大きさのオブジェクトのセグメンテーションを強化する,スケール適応型セマンティックラベル融合戦略を導入する。
次に、2次元のインスタンスラベルにおける多視点不整合問題を緩和するために、新しいクロスビューインスタンスラベルグループ化戦略を導入する。
論文 参考訳(メタデータ) (2024-03-18T14:15:39Z) - GaussNav: Gaussian Splatting for Visual Navigation [92.13664084464514]
インスタンスイメージゴールナビゲーション(IIN)では、エージェントが探索されていない環境で、目標画像に描かれた特定のオブジェクトを見つける必要がある。
視覚ナビゲーションのためのガウススティング(GaussNav)であるIINの新しいフレームワークを提案し、3次元ガウススティング(DGS)に基づく新しい地図表現を構築した。
当社のGaussNavフレームワークは,Habitat-Matterport 3D(HM3D)データセットにおいて,SPL(Path Length)によるSuccessの重み付けを0.347から0.578に増加させ,大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-03-18T09:56:48Z) - Seeing the Unseen: Visual Common Sense for Semantic Placement [71.76026880991245]
画像が与えられたら、視覚システムは、その物体が置かれたり、人間によって配置される可能性がある画像の意味論的に意味のある領域(マスクまたは境界ボックス)を予測するように要求される。
セマンティック・プレースメント(SP)と呼ばれるこのタスクは、ロボットやARデバイス(ユーザーの空間内でオブジェクトを自動レンダリングする)にとって、このような常識的な視覚的理解が重要であると信じている。
論文 参考訳(メタデータ) (2024-01-15T15:28:30Z) - VDD: Varied Drone Dataset for Semantic Segmentation [9.581655974280217]
7つのクラスにまたがる400の高解像度画像の大規模なラベル付きコレクションをリリースする。
このデータセットは、様々なカメラアングルから撮影され、様々な照明条件の下で都市、工業、農村、自然のエリアで様々なシーンを特徴としている。
私たちは、ドローンデータセットをベースラインとして7つの最先端モデルをトレーニングします。
論文 参考訳(メタデータ) (2023-05-23T02:16:14Z) - AF$_2$: Adaptive Focus Framework for Aerial Imagery Segmentation [86.44683367028914]
航空画像のセグメンテーションにはいくつかの独特な課題があり、中でも最も重要なものは前景と背景のアンバランスにある。
本稿では,階層的なセグメンテーション手法を採用し,マルチスケール表現を適応的に活用するAdaptive Focus Framework (AF$)を提案する。
AF$は、広く使われている3つの航空ベンチマークの精度を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-18T10:14:45Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Multi Receptive Field Network for Semantic Segmentation [8.06045579589765]
セグメンテーションのためのMRFM(Multi-Receptive Field Module)を提案する。
また、オブジェクト/スタッフの境界を識別するのに有効なエッジ認識損失を設計する。
具体的には、Cityscapesデータセットで83.0の平均IoU、Pascal VOC2012データセットで88.4の平均IoUを達成する。
論文 参考訳(メタデータ) (2020-11-17T11:52:23Z) - Cars Can't Fly up in the Sky: Improving Urban-Scene Segmentation via
Height-driven Attention Networks [32.01932474622993]
本稿では,都市景観画像の本質的な特徴を活かし,ハイトドリブンアテンションネットワーク(HANet)と呼ばれる汎用アドオンモジュールを提案する。
画素の垂直位置に応じて情報的特徴やクラスを選択的に強調する。
提案手法は,ResNet-101をベースとしたセグメンテーションモデルにおいて,Cityscapesベンチマークにおける新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-03-11T06:22:12Z) - Evolution of Image Segmentation using Deep Convolutional Neural Network:
A Survey [0.0]
我々はCNNに基づくセマンティックとインスタンスセグメンテーションの両方の進化を垣間見る。
我々は、最先端のパン光学セグメンテーションモデルを垣間見せた。
論文 参考訳(メタデータ) (2020-01-13T06:07:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。