論文の概要: Visual search over billions of aerial and satellite images
- arxiv url: http://arxiv.org/abs/2002.02624v1
- Date: Fri, 7 Feb 2020 04:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:54:23.049471
- Title: Visual search over billions of aerial and satellite images
- Title(参考訳): 何十億もの航空画像と衛星画像の視覚検索
- Authors: Ryan Keisler, Samuel W. Skillman, Sunny Gonnabathula, Justin Poehnelt,
Xander Rudelis, Michael S. Warren
- Abstract要約: 本稿では,何十億もの航空・衛星画像に対して視覚探索を行うシステムを提案する。
ビジュアル検索の目的は、クエリ画像と視覚的に類似した画像を見つけることである。
このシステムは、地表をリアルタイムに視覚的に探索することを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a system for performing visual search over billions of aerial and
satellite images. The purpose of visual search is to find images that are
visually similar to a query image. We define visual similarity using 512
abstract visual features generated by a convolutional neural network that has
been trained on aerial and satellite imagery. The features are converted to
binary values to reduce data and compute requirements. We employ a hash-based
search using Bigtable, a scalable database service from Google Cloud. Searching
the continental United States at 1-meter pixel resolution, corresponding to
approximately 2 billion images, takes approximately 0.1 seconds. This system
enables real-time visual search over the surface of the earth, and an
interactive demo is available at https://search.descarteslabs.com.
- Abstract(参考訳): 本稿では,数十億の航空画像と衛星画像を視覚的に探索するシステムを提案する。
ビジュアル検索の目的は、クエリ画像と視覚的に類似した画像を見つけることである。
我々は,航空画像と衛星画像で訓練された畳み込みニューラルネットワークによって生成された512の抽象視覚特徴を用いて,視覚類似性を定義する。
これらの機能は、データと計算要求を減らすためにバイナリ値に変換される。
Google CloudのスケーラブルなデータベースサービスであるBigtableを使ってハッシュベースの検索を行います。
約20億の画像に対応する1メートルの解像度で米国本土を探索するには、約0.1秒かかる。
このシステムは地上のリアルタイムなビジュアル検索を可能にし、インタラクティブなデモはhttps://search.descarteslabs.comで公開されている。
関連論文リスト
- SkyAI Sim: An Open-Source Simulation of UAV Aerial Imaging from Satellite Data [0.8749675983608172]
視覚ベースのナビゲーション(VBN)のための現実の空中画像の取得は、可用性と条件が限られているため困難である。
SkyAI Simは、UAVをシミュレートして、現実の可視光帯域仕様で、鳥眼の衛星画像をゼロヨーでキャプチャする、魅力的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-10-02T20:08:29Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - Remote Sensing Vision-Language Foundation Models without Annotations via
Ground Remote Alignment [61.769441954135246]
テキストアノテーションを使わずにリモートセンシング画像の視覚言語モデルを訓練する手法を提案する。
私たちの重要な洞察は、リモートセンシング画像と言語を接続するための仲介手段として、地上で撮影されたコロケーションのインターネットイメージを使用することです。
論文 参考訳(メタデータ) (2023-12-12T03:39:07Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Satellite Image Search in AgoraEO [9.033134895598264]
MiLaNは、衛星画像アーカイブにおける高速な類似性検索のためのコンテンツベースの画像検索手法である。
本稿では、AgoraEO内のブラウザおよび検索エンジンであるEarthQubeと統合することで、MiLaNの効率を実証する。
論文 参考訳(メタデータ) (2022-08-23T09:27:02Z) - Satellite Detection in Unresolved Space Imagery for Space Domain
Awareness Using Neural Networks [0.0]
この研究は、MobileNetV2 Convolutional Neural Network (CNN)を用いて、衛星の高速かつ移動的な検出を行う。
カスタムデータベースは、合成衛星画像プログラムの画像を使用して作成され、衛星上の「衛星陽性」画像のバウンディングボックスでラベル付けされる。
CNNは、このデータベース上でトレーニングされ、実際の望遠鏡画像で構成された外部データセット上で、モデルの精度をチェックすることによって、推論が検証される。
論文 参考訳(メタデータ) (2022-07-23T04:28:45Z) - Convolutional Neural Processes for Inpainting Satellite Images [56.032183666893246]
Inpaintingは、既知のピクセルに基づいて何が欠けているかを予測することを含み、画像処理における古い問題である。
本研究では,LANDSAT 7衛星画像のスキャンライン塗装問題に対して,従来の手法や最先端のディープラーニング塗装モデルよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-05-24T23:29:04Z) - Scalable Reverse Image Search Engine for NASAWorldview [0.6524460254566903]
研究者たちは、何十年にもわたって未ラベルの衛星画像に数週間を費やしています。
インタラクティブでスケーラブルで高速な画像類似性検索エンジンを開発し、ラベルのないデータセットを自動でシャフトする。
論文 参考訳(メタデータ) (2021-08-10T07:03:00Z) - Object Detection in Aerial Images: A Large-Scale Benchmark and
Challenges [124.48654341780431]
航空画像(DOTA)におけるオブジェクトデテクションの大規模データセットとODAIの総合的ベースラインについて述べる。
提案するDOTAデータセットは,11,268個の空中画像から収集した18カテゴリのオブジェクト指向ボックスアノテーションの1,793,658個のオブジェクトインスタンスを含む。
70以上の構成を持つ10の最先端アルゴリズムをカバーするベースラインを構築し,各モデルの速度と精度を評価した。
論文 参考訳(メタデータ) (2021-02-24T11:20:55Z) - Beyond the Camera: Neural Networks in World Coordinates [82.31045377469584]
眼球運動は、動物にシーンの解像度を高め、邪魔な情報を抑制する。
そこで我々は,各層における各機能が空間変換を持ち,機能マップは必要に応じてのみ変換される,シンプルなアイデア WorldFeatures を提案する。
これらのWorldFeaturesで構築されたネットワークは、事前に記録されたビデオのバッチ設定であっても、ササード、固定、スムーズな追跡などの眼球運動をモデル化することができる。
論文 参考訳(メタデータ) (2020-03-12T04:29:34Z) - On Learning Vehicle Detection in Satellite Video [0.0]
空中および衛星画像における車両検出は、リモートセンシング画像の全体像と比較すると、ピクセルの出現が小さいため、依然として困難である。
本研究は,衛星映像における広域動画像(WAMI)の深層学習への応用を提案する。
論文 参考訳(メタデータ) (2020-01-29T15:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。