論文の概要: Building-road Collaborative Extraction from Remotely Sensed Images via Cross-Interaction
- arxiv url: http://arxiv.org/abs/2307.12256v2
- Date: Wed, 10 Apr 2024 13:43:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 19:35:31.946262
- Title: Building-road Collaborative Extraction from Remotely Sensed Images via Cross-Interaction
- Title(参考訳): クロスインタラクションによるリモートセンシング画像からのビルディング・ロード協調抽出
- Authors: Haonan Guo, Xin Su, Chen Wu, Bo Du, Liangpei Zhang,
- Abstract要約: 建築・道路情報は、地域連携開発、防災、自動運転等のフロンティア分野において重要な応用価値を有する。
マルチタスクとクロススケールな特徴相互作用に基づくビルディング・ロード協調抽出手法を提案する。
クロススケールなインタラクションモジュールは、異なるタスクに対する最適な受信フィールドを自動的に学習するように設計されている。
- 参考スコア(独自算出の注目度): 38.46970858582502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Buildings are the basic carrier of social production and human life; roads are the links that interconnect social networks. Building and road information has important application value in the frontier fields of regional coordinated development, disaster prevention, auto-driving, etc. Mapping buildings and roads from very high-resolution (VHR) remote sensing images have become a hot research topic. However, the existing methods often ignore the strong spatial correlation between roads and buildings and extract them in isolation. To fully utilize the complementary advantages between buildings and roads, we propose a building-road collaborative extraction method based on multi-task and cross-scale feature interaction to improve the accuracy of both tasks in a complementary way. A multi-task interaction module is proposed to interact information across tasks and preserve the unique information of each task, which tackle the seesaw phenomenon in multitask learning. By considering the variation in appearance and structure between buildings and roads, a cross-scale interaction module is designed to automatically learn the optimal reception field for different tasks. Compared with many existing methods that train each task individually, the proposed collaborative extraction method can utilize the complementary advantages between buildings and roads by the proposed inter-task and inter-scale feature interactions, and automatically select the optimal reception field for different tasks. Experiments on a wide range of urban and rural scenarios show that the proposed algorithm can achieve building-road extraction with outstanding performance and efficiency.
- Abstract(参考訳): 建物は社会生産と人間生活の基本的な担体であり、道路はソーシャルネットワークを繋ぐリンクである。
建築・道路情報は、地域連携開発、防災、自動運転等のフロンティア分野において重要な応用価値を有する。
超高解像度(VHR)リモートセンシング画像からの建物や道路のマッピングがホットな研究トピックとなっている。
しかし、既存の手法は道路と建物の間の強い空間的相関を無視し、孤立して抽出することが多い。
建物と道路の相補的な利点をフル活用するために,マルチタスクとクロススケール機能インタラクションに基づくビル-ロード協調抽出手法を提案し,両タスクの精度を補完的に向上させる。
マルチタスク学習におけるシーソー現象に対処する,タスク間での情報交換と各タスクのユニークな情報保存を行うために,マルチタスクインタラクションモジュールを提案する。
建物と道路の外観や構造の変化を考慮し,異なるタスクに対する最適受信場を自動的に学習するクロススケール相互作用モジュールを設計する。
個別にタスクを訓練する既存の多くの方法と比較して,提案手法は,タスク間および大規模機能間相互作用によって,建物と道路の相補的優位性を活用でき,タスクごとに最適な受信フィールドを自動的に選択できる。
都市・農村の幅広いシナリオにおける実験により,提案アルゴリズムは優れた性能と効率でビルディングロード抽出を実現できることを示した。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - ProIn: Learning to Predict Trajectory Based on Progressive Interactions for Autonomous Driving [11.887346755144485]
プログレッシブ・インタラクション・ネットワークが提案され、エージェントの特徴が関係する地図に徐々に焦点を合わせることができる。
このネットワークは、グラフ畳み込みを通じて、地図制約の複雑な影響をエージェントの特徴に徐々にエンコードする。
実験は、既存の1段階の相互作用に対する進歩的相互作用の優越性を検証した。
論文 参考訳(メタデータ) (2024-03-25T02:38:34Z) - Fine-Grained Extraction of Road Networks via Joint Learning of
Connectivity and Segmentation [5.496893845821393]
衛星画像からの道路網抽出は、インテリジェントな交通管理と自動運転分野に広く応用されている。
高解像度のリモートセンシング画像は複雑な道路エリアと背景を逸脱させており,道路抽出の課題となっている。
接続の正しさを保ちながら、エンドツーエンドのセグメンテーション道路のためのスタック型マルチタスクネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T22:57:17Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - A Hierarchical Interactive Network for Joint Span-based Aspect-Sentiment
Analysis [34.1489054082536]
本稿では,2つのタスク間の双方向相互作用を適切にモデル化する階層型対話型ネットワーク(HI-ASA)を提案する。
クロススティッチ機構を用いて、異なるタスク固有の特徴を入力として選択的に組み合わせ、適切な双方向インタラクションを保証する。
3つの実世界のデータセットの実験は、HI-ASAがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-08-24T03:03:49Z) - DenseMTL: Cross-task Attention Mechanism for Dense Multi-task Learning [18.745373058797714]
本稿では,相互に相互にタスクを交換するマルチタスク学習アーキテクチャを提案する。
我々は3つのマルチタスク・セットアップにまたがって広範な実験を行い、合成および実世界のベンチマークにおいて競合するベースラインと比較して、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2022-06-17T17:59:45Z) - SPIN Road Mapper: Extracting Roads from Aerial Images via Spatial and
Interaction Space Graph Reasoning for Autonomous Driving [64.10636296274168]
道路抽出は、自律航法システムを構築するための重要なステップである。
この問題に対して単に畳み込みニューラルネットワーク(ConvNets)を使用することは、画像内の道路セグメント間の遠い依存関係をキャプチャする非効率であるため、効果がない。
本研究では,ConvNetに接続した時,特徴写像から投影された空間空間および相互作用空間上に構築されたグラフの推論を行う空間空間グラフ推論(SPIN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-09-16T03:52:17Z) - Neural Architecture Search From Fr\'echet Task Distance [50.9995960884133]
与えられたベースラインタスクのセット内の対象タスクと各タスクの間の距離を、ターゲットタスクのニューラルネットワークアーキテクチャ検索スペースを減らすためにどのように使用できるかを示す。
タスク固有のアーキテクチャに対する検索空間の複雑さの低減は、このサイド情報を用いることなく完全な検索を行う代わりに、類似したタスクのために最適化されたアーキテクチャ上に構築することで達成される。
論文 参考訳(メタデータ) (2021-03-23T20:43:31Z) - IDE-Net: Interactive Driving Event and Pattern Extraction from Human
Data [35.473428772961235]
本稿では,対話型イベントとパターン抽出ネットワーク(IDE-Net)を提案し,対話型イベントとパターンを自動的に抽出する。
IDE-Netは、車両軌道からイベントやパターンを直接抽出するディープラーニングフレームワークである。
インタラクションの3つの解釈可能なパターンを見つけ、ドライバーの行動表現、モデリング、理解のための洞察をもたらす。
論文 参考訳(メタデータ) (2020-11-04T16:56:12Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。