論文の概要: ViGEO: an Assessment of Vision GNNs in Earth Observation
- arxiv url: http://arxiv.org/abs/2402.09962v1
- Date: Thu, 15 Feb 2024 14:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 15:23:43.234727
- Title: ViGEO: an Assessment of Vision GNNs in Earth Observation
- Title(参考訳): ViGEO:地球観測におけるビジョンGNNの評価
- Authors: Luca Colomba, Paolo Garza
- Abstract要約: 土地利用監視システムとリモートセンシング画像分類は、常に環境モニタリングを行うドメインの専門家や政府に役立つ可能性がある。
時系列や画像などの非グラフデータ上でのグラフニューラルネットワーク(GNN)の最近の成功により、土地被覆分類のタスクに適用された最新のビジョンGNNアーキテクチャ(ViG)の性能について検討する。
ViGは、マルチクラスとマルチラベルの分類コンテキストにおける最先端のパフォーマンスを達成し、大規模なベンチマークでViTとResNetを上回ります。
- 参考スコア(独自算出の注目度): 6.41804410246642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Satellite missions and Earth Observation (EO) systems represent fundamental
assets for environmental monitoring and the timely identification of
catastrophic events, long-term monitoring of both natural resources and
human-made assets, such as vegetation, water bodies, forests as well as
buildings. Different EO missions enables the collection of information on
several spectral bandwidths, such as MODIS, Sentinel-1 and Sentinel-2. Thus,
given the recent advances of machine learning, computer vision and the
availability of labeled data, researchers demonstrated the feasibility and the
precision of land-use monitoring systems and remote sensing image
classification through the use of deep neural networks. Such systems may help
domain experts and governments in constant environmental monitoring, enabling
timely intervention in case of catastrophic events (e.g., forest wildfire in a
remote area). Despite the recent advances in the field of computer vision, many
works limit their analysis on Convolutional Neural Networks (CNNs) and, more
recently, to vision transformers (ViTs). Given the recent successes of Graph
Neural Networks (GNNs) on non-graph data, such as time-series and images, we
investigate the performances of a recent Vision GNN architecture (ViG) applied
to the task of land cover classification. The experimental results show that
ViG achieves state-of-the-art performances in multiclass and multilabel
classification contexts, surpassing both ViT and ResNet on large-scale
benchmarks.
- Abstract(参考訳): 衛星ミッションと地球観測(eo)システムは、環境モニタリングと壊滅的な事象のタイムリーな識別、自然資源と植生、水域、森林、建物などの人為的な資産の両方の長期監視のための基本的な資産を表している。
異なるEOミッションは、MODIS、Sentinel-1、Sentinel-2などの複数のスペクトル帯域に関する情報の収集を可能にする。
したがって、最近の機械学習、コンピュータビジョン、ラベル付きデータの可用性の進歩を踏まえ、研究者らは深層ニューラルネットワークによる土地利用監視システムとリモートセンシング画像分類の実現可能性と精度を実証した。
このようなシステムは、絶え間なく環境モニタリングを行うドメインの専門家や政府を助け、破滅的な事態(例えば遠隔地での森林火災)にタイムリーに介入することができる。
コンピュータビジョンの分野での最近の進歩にもかかわらず、多くの研究は畳み込みニューラルネットワーク(CNN)の解析を制限し、最近ではビジョントランスフォーマー(ViT)に制限している。
時系列や画像などの非グラフデータにおけるグラフニューラルネットワーク(GNN)の最近の成功を踏まえ、土地被覆分類のタスクに適用された最新のビジョンGNNアーキテクチャ(ViG)の性能について検討する。
実験結果から,ViGはマルチクラスおよびマルチラベルの分類文脈において,大規模ベンチマークでViTとResNetを上回り,最先端の性能を達成することが示された。
関連論文リスト
- On Vision Transformers for Classification Tasks in Side-Scan Sonar Imagery [0.0]
サイドスキャンソナー (SSS) 画像は海底の人工物体の分類においてユニークな課題を呈している。
本稿では、SSS画像のバイナリ分類タスクによく使用されるCNNアーキテクチャとともに、VTモデルの性能を厳格に比較する。
ViTベースのモデルは、f1スコア、精度、リコール、精度の指標で優れた分類性能を示す。
論文 参考訳(メタデータ) (2024-09-18T14:36:50Z) - Influencer Detection with Dynamic Graph Neural Networks [56.1837101824783]
インフルエンサー検出のための動的グラフニューラルネットワーク(GNN)の構成について検討する。
GNNにおける深層多面的注意と時間特性の符号化が性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-11-15T13:00:25Z) - A General Purpose Neural Architecture for Geospatial Systems [142.43454584836812]
本稿では,空間的帰納バイアスを持つ汎用ニューラルアーキテクチャ(GPNA)の構築に向けたロードマップを示す。
このようなモデルがコミュニティのメンバー間の協力をいかに促進するかを考察する。
論文 参考訳(メタデータ) (2022-11-04T09:58:57Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - A Survey on Graph Neural Networks and Graph Transformers in Computer Vision: A Task-Oriented Perspective [71.03621840455754]
グラフニューラルネットワーク(GNN)はグラフ表現学習において勢いを増している。
Graph Transformerは、グラフ構造をTransformerアーキテクチャに組み込んで、局所的な近傍集約の制限を克服します。
本稿では,タスク指向の観点から,コンピュータビジョンにおけるGNNとグラフトランスフォーマーの総合的なレビューを行う。
論文 参考訳(メタデータ) (2022-09-27T08:10:14Z) - Spotting Virus from Satellites: Modeling the Circulation of West Nile
Virus Through Graph Neural Networks [10.235799644961816]
西ナイルウイルス(西ナイルウイルス、英語: West Nile Virus、WNV)は、蚊が媒介する動物病ウイルスの1つである。
グラフニューラルネットワーク(GNN)を用いて,周辺地域の特徴を集約する。
ウイルス拡散の季節性を考慮したモデルに時間関連情報を直接注入する。
論文 参考訳(メタデータ) (2022-09-07T16:40:45Z) - Vision Transformers: From Semantic Segmentation to Dense Prediction [139.15562023284187]
視覚的予測のための視覚変換器(ViT)のグローバルな文脈学習の可能性について検討する。
我々のモチベーションは、グローバルコンテキストを全受容界層で学習することで、ViTがより強力な長距離依存性情報を取得することである。
階層型ローカル・グローバル・トランスフォーマー (HLG) のファミリを定式化し, 窓内部の局所的な注意と, ピラミッド建築における窓全体のグローバルアテンションを特徴とする。
論文 参考訳(メタデータ) (2022-07-19T15:49:35Z) - Optical flow-based branch segmentation for complex orchard environments [73.11023209243326]
シミュレーションでは、シミュレーションでは、シミュレーションされたRGBデータと光フローのみを用いてニューラルネットワークシステムを訓練する。
このニューラルネットワークは、忙しい果樹園環境において、追加の現実世界のトレーニングや、標準カメラ以外の特別な設定や機器を使用することなく、前景の枝のセグメンテーションを行うことができる。
その結果,本システムは高精度であり,手動ラベル付きRGBDデータを用いたネットワークと比較すると,トレーニングセットと異なる環境において,より一貫性と堅牢性を実現していることがわかった。
論文 参考訳(メタデータ) (2022-02-26T03:38:20Z) - UAV-AdNet: Unsupervised Anomaly Detection using Deep Neural Networks for
Aerial Surveillance [20.318367304051176]
本稿では,重要なインフラの監視のために,ディープニューラルネットワークを用いた全体的異常検出システムを提案する。
まず,鳥視画像中の物体の空間配置を明示的に表現する手法を提案する。
次に、教師なし異常検出(UAV-AdNet)のためのディープニューラルネットワークアーキテクチャを提案する。
文献研究とは異なり、GPSと画像データを組み合わせて異常な観察を予測する。
論文 参考訳(メタデータ) (2020-11-05T14:26:29Z) - Detecting the Presence of Vehicles and Equipment in SAR Imagery Using
Image Texture Features [0.0]
低解像度SAR画像における人為的・建設的活動のモニタリング手法を提案する。
我々のデータソースは欧州宇宙機関(ESA)のSentinel-l衛星で、12日間のリビジットレートで地球をカバーしています。
探索的データセットを用いて、サポートベクターマシン(SVM)、ランダムなバイナリフォレスト、完全に接続されたニューラルネットワークの分類を訓練した。
論文 参考訳(メタデータ) (2020-09-10T13:59:52Z) - Improvement in Land Cover and Crop Classification based on Temporal
Features Learning from Sentinel-2 Data Using Recurrent-Convolutional Neural
Network (R-CNN) [1.0312968200748118]
本稿では,リカレントニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)に基づく,画素ベースの土地被覆と作物分類(LC&CC)のための,新しい最適なディープラーニングモデルを開発する。
本研究では,主要農作物を含む15種について検討した。
提案したPixel R-CNNの全体的な精度は96.5%であり、既存の主流手法と比較して大幅に改善された。
論文 参考訳(メタデータ) (2020-04-27T15:39:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。