論文の概要: Seeing the roads through the trees: A benchmark for modeling spatial
dependencies with aerial imagery
- arxiv url: http://arxiv.org/abs/2401.06762v1
- Date: Fri, 12 Jan 2024 18:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 18:35:02.038413
- Title: Seeing the roads through the trees: A benchmark for modeling spatial
dependencies with aerial imagery
- Title(参考訳): 木々を通した道路の視線:空間的依存関係を空中画像でモデル化するためのベンチマーク
- Authors: Caleb Robinson, Isaac Corley, Anthony Ortiz, Rahul Dodhia, Juan M.
Lavista Ferres, Peyman Najafirad
- Abstract要約: 空撮で背景から道路を分割する訓練を受けたU-Netが、ブロックされていない道路で84%のリコールを達成する方法を示しているが、同じ方法でモデリングする訓練を受けたにもかかわらず、樹冠で覆われた道路では63.5%しかリコールしていない。
実験と画像とマスクのデータセットを再現するコードをリリースし、今後の研究を促進する。
- 参考スコア(独自算出の注目度): 5.753813867100394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fully understanding a complex high-resolution satellite or aerial imagery
scene often requires spatial reasoning over a broad relevant context. The human
object recognition system is able to understand object in a scene over a
long-range relevant context. For example, if a human observes an aerial scene
that shows sections of road broken up by tree canopy, then they will be
unlikely to conclude that the road has actually been broken up into disjoint
pieces by trees and instead think that the canopy of nearby trees is occluding
the road. However, there is limited research being conducted to understand
long-range context understanding of modern machine learning models. In this
work we propose a road segmentation benchmark dataset, Chesapeake Roads Spatial
Context (RSC), for evaluating the spatial long-range context understanding of
geospatial machine learning models and show how commonly used semantic
segmentation models can fail at this task. For example, we show that a U-Net
trained to segment roads from background in aerial imagery achieves an 84%
recall on unoccluded roads, but just 63.5% recall on roads covered by tree
canopy despite being trained to model both the same way. We further analyze how
the performance of models changes as the relevant context for a decision
(unoccluded roads in our case) varies in distance. We release the code to
reproduce our experiments and dataset of imagery and masks to encourage future
research in this direction -- https://github.com/isaaccorley/ChesapeakeRSC.
- Abstract(参考訳): 複雑な高解像度の衛星や空中画像のシーンを完全に理解するには、広義のコンテキストに関する空間的推論が必要となることが多い。
人間のオブジェクト認識システムは、長時間のコンテキストにおいて、シーン内のオブジェクトを理解することができる。
例えば、木製天蓋で区切られた道路の一部を示す空中シーンを人間が観察した場合、実際に道路が木々によって分割され、その代わりに近くの木の天蓋が道路を覆っていると考えることはありそうにない。
しかし、現代の機械学習モデルの長距離文脈理解についての研究は限られている。
本研究では,地理空間機械学習モデルの空間的長距離コンテキスト理解を評価するための,道路セグメンテーションベンチマークデータセットであるchesapeake roads spatial context(rsc)を提案する。
例えば、航空画像の背景から道路を切り離すように訓練されたu-netは、未閉塞の道路で84%のリコールを達成したが、同じ方法でモデル化されたにもかかわらず、ツリーキャノピーに覆われた道路では63.5%しかリコールできなかった。
さらに、決定(この場合、未排除道路)の関連する文脈としてモデルの性能がどのように変化するかを分析する。
イメージとマスクの実験とデータセットを再現するコードをリリースし、この方向の今後の研究を促進するために、https://github.com/isaaccorley/chesapeakersc.com/。
関連論文リスト
- TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - Probabilistic road classification in historical maps using synthetic data and deep learning [3.3755652248305004]
深層学習と地理情報,コンピュータによる絵画,画像処理手法を融合した新しいフレームワークを提案する。
この枠組みは,道路地形のみを用いた歴史地図からの道路の抽出と分類を可能にする。
道路クラス2では, それぞれ94%以上, 92%以上であった。
論文 参考訳(メタデータ) (2024-10-03T06:43:09Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - SPIN Road Mapper: Extracting Roads from Aerial Images via Spatial and
Interaction Space Graph Reasoning for Autonomous Driving [64.10636296274168]
道路抽出は、自律航法システムを構築するための重要なステップである。
この問題に対して単に畳み込みニューラルネットワーク(ConvNets)を使用することは、画像内の道路セグメント間の遠い依存関係をキャプチャする非効率であるため、効果がない。
本研究では,ConvNetに接続した時,特徴写像から投影された空間空間および相互作用空間上に構築されたグラフの推論を行う空間空間グラフ推論(SPIN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-09-16T03:52:17Z) - Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning [7.965964259208489]
道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
オフロードロボットには、きめ細かいラベルを持つシーンを理解する必要がある。
本研究では,ロボットがオフロードを横断する有意義なシーン理解を実現するための,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T13:23:24Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - RoadTagger: Robust Road Attribute Inference with Graph Neural Networks [26.914950002847863]
衛星画像からレーン数や道路タイプなどの道路特性を推定することは困難である。
RoadTaggerは、畳み込みニューラルネットワーク(CNN)とグラフニューラルネットワーク(GNN)を組み合わせて、道路特性を推論するエンドツーエンドアーキテクチャである。
我々は米国20都市の688 km2の領域をカバーする大規模な実世界のデータセットと、合成マイクロデータセットの両方でRoadTaggerを評価した。
論文 参考訳(メタデータ) (2019-12-28T06:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。