論文の概要: STAR: A First-Ever Dataset and A Large-Scale Benchmark for Scene Graph Generation in Large-Size Satellite Imagery
- arxiv url: http://arxiv.org/abs/2406.09410v3
- Date: Wed, 3 Jul 2024 08:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 19:13:15.023468
- Title: STAR: A First-Ever Dataset and A Large-Scale Benchmark for Scene Graph Generation in Large-Size Satellite Imagery
- Title(参考訳): STAR:大容量衛星画像における1次データセットと大規模グラフ生成ベンチマーク
- Authors: Yansheng Li, Linlin Wang, Tingzhu Wang, Xue Yang, Junwei Luo, Qi Wang, Youming Deng, Wenbin Wang, Xian Sun, Haifeng Li, Bo Dang, Yongjun Zhang, Yi Yu, Junchi Yan,
- Abstract要約: 衛星画像(SAI)におけるシーングラフ生成(SGG)は、地理空間シナリオの認識から認識への理解を促進する。
画像サイズは512 x 768から27,860 x 31,096ピクセル(STAR)である。
大規模SAIにおいてSGGを実現するために,オブジェクト検出(OBD)やペアプルーニング,SGGの関係予測に関するSAIを理解するためのコンテキスト認識カスケード認知(CAC)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 57.98623766568799
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene graph generation (SGG) in satellite imagery (SAI) benefits promoting understanding of geospatial scenarios from perception to cognition. In SAI, objects exhibit great variations in scales and aspect ratios, and there exist rich relationships between objects (even between spatially disjoint objects), which makes it attractive to holistically conduct SGG in large-size very-high-resolution (VHR) SAI. However, there lack such SGG datasets. Due to the complexity of large-size SAI, mining triplets <subject, relationship, object> heavily relies on long-range contextual reasoning. Consequently, SGG models designed for small-size natural imagery are not directly applicable to large-size SAI. This paper constructs a large-scale dataset for SGG in large-size VHR SAI with image sizes ranging from 512 x 768 to 27,860 x 31,096 pixels, named STAR (Scene graph generaTion in lArge-size satellite imageRy), encompassing over 210K objects and over 400K triplets. To realize SGG in large-size SAI, we propose a context-aware cascade cognition (CAC) framework to understand SAI regarding object detection (OBD), pair pruning and relationship prediction for SGG. We also release a SAI-oriented SGG toolkit with about 30 OBD and 10 SGG methods which need further adaptation by our devised modules on our challenging STAR dataset. The dataset and toolkit are available at: https://linlin-dev.github.io/project/STAR.
- Abstract(参考訳): 衛星画像(SAI)におけるシーングラフ生成(SGG)は、地理空間シナリオの認識から認識への理解を促進する。
SAIでは、物体はスケールとアスペクト比に大きな変化を示し、(空間的に不連続な物体の間であっても)物体の間にリッチな関係があり、大容量超高分解能(VHR)SAIにおいてSGGを水平に行うことが魅力的である。
しかし、そのようなSGGデータセットは存在しない。
大規模SAIの複雑さのため、鉱業三重項<subject, relationship, object>は長距離文脈推論に大きく依存している。
そのため、小型の自然画像用に設計されたSGGモデルは、大規模SAIには直接適用されない。
本稿では,512 x 768から27,860 x 31,096ピクセル,STAR (Scene graph generaTion in lArge-size satellite imageRy) と名付けられ,210K以上のオブジェクトと400K以上のトリプルを含む大規模VHR SAIにおけるSGGの大規模データセットを構築した。
大規模SAIにおいてSGGを実現するために,オブジェクト検出(OBD)やペアプルーニング,SGGの関係予測に関するSAIを理解するためのコンテキスト認識カスケード認知(CAC)フレームワークを提案する。
また、約30のOBDと10のSGGメソッドを備えたSAI指向のSGGツールキットもリリースしています。
データセットとツールキットは以下の通りである。
関連論文リスト
- ReCon1M:A Large-scale Benchmark Dataset for Relation Comprehension in Remote Sensing Imagery [18.764245751372712]
本稿では,リモートセンシング画像の分野における大規模・百万レベルの関係データセットについて紹介する。
60のカテゴリにまたがる855,751のオブジェクトバウンディングボックスのアノテーションと、これらのバウンディングボックスに基づいて64のカテゴリにまたがる1,149,342のトリプルリレーションが含まれている。
論文 参考訳(メタデータ) (2024-06-10T05:40:03Z) - AUG: A New Dataset and An Efficient Model for Aerial Image Urban Scene Graph Generation [40.149652254414185]
本稿では,航空画像都市景観グラフ生成(AUG)データセットを構築し,公開する。
AUGデータセットの画像は、低高度のオーバーヘッドビューでキャプチャされる。
複雑な都市景観において局地的な状況が過大評価されるのを避けるため,本稿では,新たな局地性保存グラフ畳み込みネットワーク(LPG)を提案する。
論文 参考訳(メタデータ) (2024-04-11T14:29:30Z) - Expanding Scene Graph Boundaries: Fully Open-vocabulary Scene Graph Generation via Visual-Concept Alignment and Retention [69.36723767339001]
SGG(Scene Graph Generation)は、多くのコンピュータビジョンアプリケーションにおいて重要な構造化された表現を提供する。
我々はOvSGTRという名前の統一フレームワークを全体的視点から完全にオープンな語彙SGGに向けて提案する。
関係付きオープン語彙SGGのより困難な設定のために、提案手法は関係対応型事前学習を統合する。
論文 参考訳(メタデータ) (2023-11-18T06:49:17Z) - Simple, Effective and General: A New Backbone for Cross-view Image
Geo-localization [9.687328460113832]
我々は、シンプルな注意に基づく画像ジオローカライゼーションネットワーク(SAIG)という新しいバックボーンネットワークを提案する。
提案したSAIGは、パッチ間の長距離相互作用と、マルチヘッド・セルフアテンション・レイヤとのクロスビュー対応を効果的に表現する。
我々のSAIGは、従来よりもはるかにシンプルでありながら、クロスビューなジオローカライゼーションにおける最先端の成果を達成している。
論文 参考訳(メタデータ) (2023-02-03T06:50:51Z) - Towards Open-vocabulary Scene Graph Generation with Prompt-based
Finetuning [84.39787427288525]
シーングラフ生成(SGG)は、画像内のオブジェクト間の視覚的関係を検出するための基本的なタスクである。
オープンボキャブラリシーングラフ生成は,モデルが一連のベースオブジェクトクラスでトレーニングされる,斬新で現実的で困難な設定である。
我々のメソッドは、既存のメソッドが処理できない、完全に見えないオブジェクトクラスに対する推論をサポートすることができる。
論文 参考訳(メタデータ) (2022-08-17T09:05:38Z) - Relation Regularized Scene Graph Generation [206.76762860019065]
SGG(Scene Graph Generation)は、検出されたオブジェクトの上に構築され、オブジェクトのペアの視覚的関係を予測する。
本稿では,2つのオブジェクト間の関係を予測できる関係正規化ネットワーク(R2-Net)を提案する。
我々のR2-Netはオブジェクトラベルを効果的に洗練し、シーングラフを生成する。
論文 参考訳(メタデータ) (2022-02-22T11:36:49Z) - Spatial-Spectral Clustering with Anchor Graph for Hyperspectral Image [88.60285937702304]
本稿では、HSIデータクラスタリングのための空間スペクトルクラスタリングとアンカーグラフ(SSCAG)という新しい非監視アプローチを提案する。
提案されたSSCAGは最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-04-24T08:09:27Z) - Re-thinking Co-Salient Object Detection [170.44471050548827]
Co-Salient Object Detection (CoSOD) は、画像群において共起するサルエントオブジェクトを検出することを目的としている。
既存のCoSODデータセットは、画像の各グループに類似した視覚的外観の有能なオブジェクトが含まれていると仮定して、深刻なデータバイアスを持つことが多い。
我々はCoSOD3kと呼ばれる新しいベンチマークを野生で導入し、大量の意味的コンテキストを必要とする。
論文 参考訳(メタデータ) (2020-07-07T12:20:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。