論文の概要: Skyline variations allow estimating distance to trees on landscape
photos using semantic segmentation
- arxiv url: http://arxiv.org/abs/2201.08816v1
- Date: Fri, 14 Jan 2022 12:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 13:37:22.302932
- Title: Skyline variations allow estimating distance to trees on landscape
photos using semantic segmentation
- Title(参考訳): ランドスケープ写真上の木間距離をセマンティックセグメンテーションで推定できるスカイラインのバリエーション
- Authors: Laura Martinez-Sanchez, Daniele Borio, Rapha\"el d'Andrimont, Marijn
van der Velde
- Abstract要約: ランドスケープ写真のスカイラインの変動は,地平線上の木々との距離を推定するために利用できることを示す。
スカイラインの変動に基づく手法が開発され、スカイライン物体からの距離との潜在的な関係を調べるために利用されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Approximate distance estimation can be used to determine fundamental
landscape properties including complexity and openness. We show that variations
in the skyline of landscape photos can be used to estimate distances to trees
on the horizon. A methodology based on the variations of the skyline has been
developed and used to investigate potential relationships with the distance to
skyline objects. The skyline signal, defined by the skyline height expressed in
pixels, was extracted for several Land Use/Cover Area frame Survey (LUCAS)
landscape photos. Photos were semantically segmented with DeepLabV3+ trained
with the Common Objects in Context (COCO) dataset. This provided pixel-level
classification of the objects forming the skyline. A Conditional Random Fields
(CRF) algorithm was also applied to increase the details of the skyline signal.
Three metrics, able to capture the skyline signal variations, were then
considered for the analysis. These metrics shows a functional relationship with
distance for the class of trees, whose contours have a fractal nature. In
particular, regression analysis was performed against 475 ortho-photo based
distance measurements, and, in the best case, a R2 score equal to 0.47 was
achieved. This is an encouraging result which shows the potential of skyline
variation metrics for inferring distance related information.
- Abstract(参考訳): 近似距離推定は、複雑さや開度を含む基本的な景観特性を決定するために用いられる。
ランドスケープ写真のスカイラインの変動は,地平線上の木々との距離を推定するために利用できることを示す。
スカイラインのバリエーションに基づく手法が開発され、スカイラインオブジェクトの距離との潜在的な関係を調べるために使用されている。
ランド・ユース/コーバー・エリア・フレーム・サーベイ(LUCAS)のランドスケープ写真から,ピクセルで表現されたスカイラインの高さによって定義されるスカイライン信号を抽出した。
写真は意味的にDeepLabV3+でセグメンテーションされ、Common Objects in Context (COCO)データセットでトレーニングされた。
これにより、スカイラインを形成する物体のピクセルレベルの分類が可能となった。
スカイライン信号の詳細を増やすために,条件付きランダムフィールド (CRF) アルゴリズムも適用された。
スカイライン信号の変動を捉えることができる3つの指標が分析のために検討された。
これらの指標は、輪郭がフラクタルの性質を持つ木々の分類における距離と機能的関係を示す。
特に475枚のオルソ写真に基づく距離測定に対して回帰分析を行い, 最善の場合には0.47と等しいr2スコアを得た。
これは、距離関連情報を推測するためのスカイライン変動指標の可能性を示す励振的な結果である。
関連論文リスト
- OAM-TCD: A globally diverse dataset of high-resolution tree cover maps [8.336960607169175]
OpenMap (OAM) から得られた高解像度の空中画像において, ツリークラウンデライン化(TCD)のための新しいオープンアクセスデータセットを提案する。
我々のデータセットであるOAM-TCDは、50722048x2048px画像を10cm/px解像度で、関連する280k個以上の木と56k個の木からなる。
データセットを使用して、既存の最先端モデルと比較する参照インスタンスとセマンティックセグメンテーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2024-07-16T14:11:29Z) - Learning Dense Flow Field for Highly-accurate Cross-view Camera
Localization [15.89357790711828]
本稿では,衛星画像に対する地上画像に対する3DFカメラのポーズ推定の問題に対処する。
地上画像と衛星画像のペアにおいて,高密度な画素単位の流れ場を学習する手法を提案する。
提案手法は,KITTI,Ford multi-AV,VIGOR,Oxford RobotCarデータセットにおいて,中央値のローカライゼーション誤差を89%,19%,80%,35%削減する。
論文 参考訳(メタデータ) (2023-09-27T10:26:26Z) - Linear features segmentation from aerial images [0.0]
本稿では,U-Net や SegNet などの深層学習モデルを用いて,道路交通の分岐線を航空画像から分類・区分けする手法を提案する。
注釈付きデータはこれらのモデルをトレーニングするために使用され、その後、空中画像の分類と分類に使用される。
また,道路のディジタル可視化のためのCADファイルを構築するために,都市計画者が利用できるセグメント化出力から,各流域のx座標とy座標を抽出した。
論文 参考訳(メタデータ) (2022-12-23T18:51:14Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Baseline and Triangulation Geometry in a Standard Plenoptic Camera [6.719751155411075]
レンズカメラに三角測量を適用可能な幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
論文 参考訳(メタデータ) (2020-10-09T15:31:14Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - Where am I looking at? Joint Location and Orientation Estimation by
Cross-View Matching [95.64702426906466]
ジオタグ付き空中画像の大規模データベースを考えると、クロスビューなジオローカライゼーションは問題となる。
地上画像と空中画像の向きを知ることは、これらの2つのビュー間のあいまいさを著しく軽減することができる。
局所化時の横方向のアライメントを推定する動的類似マッチングネットワークを設計する。
論文 参考訳(メタデータ) (2020-05-08T05:21:16Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Evaluation of Cross-View Matching to Improve Ground Vehicle Localization
with Aerial Perception [17.349420462716886]
クロスビューマッチング(クロスビューマッチング、cross-view matching)とは、あるクエリーグラウンドビュー画像の最も近いマッチングを、航空画像のデータベースから検索する問題を指す。
本稿では,より長い軌道上での地上車両の位置決め作業に対するクロスビューマッチングの評価を行う。
論文 参考訳(メタデータ) (2020-03-13T23:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。