論文の概要: AiRound and CV-BrCT: Novel Multi-View Datasets for Scene Classification
- arxiv url: http://arxiv.org/abs/2008.01133v1
- Date: Mon, 3 Aug 2020 18:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 06:07:06.580189
- Title: AiRound and CV-BrCT: Novel Multi-View Datasets for Scene Classification
- Title(参考訳): AiRoundとCV-BrCT:シーン分類のための新しいマルチビューデータセット
- Authors: Gabriel Machado, Edemir Ferreira, Keiller Nogueira, Hugo Oliveira,
Pedro Gama and Jefersson A. dos Santos
- Abstract要約: 本稿では,thedatasetand CV-BrCTという2つの新しいデータセットを提案する。
1つ目は、世界中の様々な場所から抽出された視点の異なる、同じ地理的座標からの3つの画像を含む。
第2のデータセットには、ブラジル南東部から抽出された空中画像とストリートレベルの画像が含まれている。
- 参考スコア(独自算出の注目度): 2.931113769364182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is undeniable that aerial/satellite images can provide useful information
for a large variety of tasks. But, since these images are always looking from
above, some applications can benefit from complementary information provided by
other perspective views of the scene, such as ground-level images. Despite a
large number of public repositories for both georeferenced photographs and
aerial images, there is a lack of benchmark datasets that allow the development
of approaches that exploit the benefits and complementarity of aerial/ground
imagery. In this paper, we present two new publicly available datasets named
\thedataset~and CV-BrCT. The first one contains triplets of images from the
same geographic coordinate with different perspectives of view extracted from
various places around the world. Each triplet is composed of an aerial RGB
image, a ground-level perspective image, and a Sentinel-2 sample. The second
dataset contains pairs of aerial and street-level images extracted from
southeast Brazil. We design an extensive set of experiments concerning
multi-view scene classification, using early and late fusion. Such experiments
were conducted to show that image classification can be enhanced using
multi-view data.
- Abstract(参考訳): 航空衛星画像が様々なタスクに有用な情報を提供できることは否定できない。
しかし、これらの画像は常に上から見ているので、地上画像などの他の視点から得られる補完的な情報から恩恵を受けるアプリケーションもある。
地理参照写真と空中画像の両方の公開リポジトリは多いが、空中画像と地上画像の利点と相補性を利用するアプローチの開発を可能にするベンチマークデータセットが不足している。
本稿では,<thedataset</the>とCV-BrCTという2つの新しいデータセットを提案する。
1つ目は、世界中の様々な場所から抽出された視点の異なる同じ地理的座標からの3つの画像を含む。
各トリプルトは、空中RGB画像、地上レベルの視点画像、およびセンチネル2サンプルで構成されている。
第2のデータセットは、ブラジル南東部から抽出された空中およびストリートレベルの画像のペアを含んでいる。
本研究では,早期および後期融合を用いた多視点シーン分類に関する実験セットを設計する。
このような実験により,マルチビューデータを用いて画像分類を拡張できることを示した。
関連論文リスト
- Game4Loc: A UAV Geo-Localization Benchmark from Game Data [0.0]
クロスビューペアデータの部分的マッチングを含む,より実用的なUAV測位タスクを提案する。
実験により,UAV測地のためのデータとトレーニング手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-25T13:33:28Z) - Cross-view image geo-localization with Panorama-BEV Co-Retrieval Network [12.692812966686066]
クロスビュージオローカライゼーションは、地理参照衛星データベースとマッチングすることで、ストリートビュー画像の地理的位置を識別する。
そこで我々は,パノラマBEVコレトリヴァルネットワーク(Panorama-BEV Co-Retrieval Network)という,クロスビュー画像のジオローカライズのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-10T08:03:58Z) - Classifying geospatial objects from multiview aerial imagery using semantic meshes [2.116528763953217]
米国における森林の航空画像に基づく樹木種予測手法を提案する。
提案手法は, 木分類に難渋する課題に対して, 53%から75%に分類精度を向上することを示す。
論文 参考訳(メタデータ) (2024-05-15T17:56:49Z) - AG-ReID.v2: Bridging Aerial and Ground Views for Person Re-identification [39.58286453178339]
空中人物再識別(Re-ID)は、コンピュータビジョンにおいて固有の課題を提示する。
AG-ReID.v2は、空中および地上の混合シナリオにおいて、人物Re-ID用に特別に設計されたデータセットである。
このデータセットは、1,615人のユニークな個人の100,502枚の画像で構成され、それぞれに一致するIDと15のソフト属性ラベルが付加されている。
論文 参考訳(メタデータ) (2024-01-05T04:53:33Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Where We Are and What We're Looking At: Query Based Worldwide Image
Geo-localization Using Hierarchies and Scenes [53.53712888703834]
地理的レベルの異なる関係を利用して、エンドツーエンドのトランスフォーマーベースのアーキテクチャを導入する。
4つの標準ジオローカライゼーションデータセット上で,アートストリートレベルの精度を実現する。
論文 参考訳(メタデータ) (2023-03-07T21:47:58Z) - GAMa: Cross-view Video Geo-localization [68.33955764543465]
我々は、文脈的手がかりを提供する画像ではなく、地上ビデオに焦点を当てている。
クリップレベルでは、短いビデオクリップと対応する空中画像が一致し、後に長いビデオの動画レベルのジオローカライズを得るために使用される。
提案手法は,トップ1リコール率19.4%,45.1%@1.0マイルを達成する。
論文 参考訳(メタデータ) (2022-07-06T04:25:51Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z) - Multiview Detection with Feature Perspective Transformation [59.34619548026885]
本稿では,新しいマルチビュー検出システムMVDetを提案する。
我々は,平面上に特徴写像を投影することで,多視点情報を集約するアンカーフリーアプローチを採っている。
私たちのモデル全体がエンドツーエンドで学習可能で、標準のWildtrackデータセットで88.2%のMODAを実現しています。
論文 参考訳(メタデータ) (2020-07-14T17:58:30Z) - Cross-View Image Retrieval -- Ground to Aerial Image Retrieval through
Deep Learning [3.326320568999945]
我々は,クロスビュー画像検索CVIRと呼ばれる,多視点画像を対象とした新しいクロスモーダル検索手法を提案する。
本研究の目的は,ストリートビュー画像からのサンプルを衛星ビュー画像と直接比較する,特徴空間と埋め込み空間を見出すことである。
この比較のために、DeepCVIRという新しい深層学習ソリューションが提案されている。
論文 参考訳(メタデータ) (2020-05-02T06:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。