論文の概要: Scalable Reverse Image Search Engine for NASAWorldview
- arxiv url: http://arxiv.org/abs/2108.04479v1
- Date: Tue, 10 Aug 2021 07:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 21:57:27.882071
- Title: Scalable Reverse Image Search Engine for NASAWorldview
- Title(参考訳): NASAWorldviewのためのスケーラブルなリバースイメージ検索エンジン
- Authors: Abhigya Sodani, Michael Levy, Anirudh Koul, Meher Anand Kasam, Siddha
Ganju
- Abstract要約: 研究者たちは、何十年にもわたって未ラベルの衛星画像に数週間を費やしています。
インタラクティブでスケーラブルで高速な画像類似性検索エンジンを開発し、ラベルのないデータセットを自動でシャフトする。
- 参考スコア(独自算出の注目度): 0.6524460254566903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Researchers often spend weeks sifting through decades of unlabeled satellite
imagery(on NASA Worldview) in order to develop datasets on which they can start
conducting research. We developed an interactive, scalable and fast image
similarity search engine (which can take one or more images as the query image)
that automatically sifts through the unlabeled dataset reducing dataset
generation time from weeks to minutes. In this work, we describe key components
of the end to end pipeline. Our similarity search system was created to be able
to identify similar images from a potentially petabyte scale database that are
similar to an input image, and for this we had to break down each query image
into its features, which were generated by a classification layer stripped CNN
trained in a supervised manner. To store and search these features efficiently,
we had to make several scalability improvements. To improve the speed, reduce
the storage, and shrink memory requirements for embedding search, we add a
fully connected layer to our CNN make all images into a 128 length vector
before entering the classification layers. This helped us compress the size of
our image features from 2048 (for ResNet, which was initially tried as our
featurizer) to 128 for our new custom model. Additionally, we utilize existing
approximate nearest neighbor search libraries to significantly speed up
embedding search. Our system currently searches over our entire database of
images at 5 seconds per query on a single virtual machine in the cloud. In the
future, we would like to incorporate a SimCLR based featurizing model which
could be trained without any labelling by a human (since the classification
aspect of the model is irrelevant to this use case).
- Abstract(参考訳): 研究者たちは、何週間も、無ラベルの衛星画像(NASAワールドビュー)を精査し、研究を開始するためのデータセットを開発する。
対話的でスケーラブルで高速な画像類似性検索エンジン(クェリ画像として1つ以上の画像を取り出せる)を開発し、ラベルのないデータセットを自動的に抽出し、データセットの生成時間を数週間から数分に短縮した。
本研究では,エンドツーエンドパイプラインの主要なコンポーネントについて述べる。
我々の類似性検索システムは,入力画像に類似する可能性のあるペタバイト規模のデータベースから類似画像を識別するために作成され,そのために,各クエリ画像をその特徴に分解し,教師付き方法で訓練されたCNNの分類層で生成する必要があった。
これらの機能を効率的に保存し、検索するには、いくつかのスケーラビリティの改善が必要でした。
速度の向上、ストレージの削減、埋め込み検索のメモリ要件の縮小のために、cnnに完全に接続されたレイヤを追加して、すべてのイメージを分類層に入る前に128長さのベクターにします。
これにより、画像機能のサイズを2048年(resnetではフェアチュアライザとして試しました)から、新しいカスタムモデルで128に圧縮しました。
さらに,既存の近距離探索ライブラリを用いて埋め込み検索を大幅に高速化する。
当社のシステムは現在,クラウド上の単一の仮想マシン上で,クエリ毎に5秒でイメージデータベース全体を検索しています。
将来的には、人間によるラベル付けなしにトレーニングできるSimCLRベースの成果化モデルを取り入れたいと思っています(このユースケースとは無関係なので)。
関連論文リスト
- Multi-Spectral Remote Sensing Image Retrieval Using Geospatial Foundation Models [0.562479170374811]
この研究は、PrithviのようなGeospatial Foundation Modelsをリモートセンシング画像検索に使用することを提案している。
検索タスクに2つのデータセットを導入し、高い性能を観察する。
Prithviは6つのバンドを処理し、平均精度はBigEarthNet-43で97.62%、フォレストNet-12で44.51%に達する。
論文 参考訳(メタデータ) (2024-03-04T14:00:45Z) - CFIR: Fast and Effective Long-Text To Image Retrieval for Large Corpora [3.166549403591528]
本稿では,高速かつ効率的な画像検索のための2段階の粗度指数共有検索(CFIR)フレームワークを提案する。
CFIRは、Recall@1000で既存のMLLMを最大11.06%上回り、トレーニング時間と検索時間をそれぞれ68.75%、99.79%削減している。
論文 参考訳(メタデータ) (2024-02-23T11:47:16Z) - A Dynamic YOLO-Based Sequence-Matching Model for Efficient Coverless Image Steganography [12.950354250175982]
動的にマッチングされた画像に基づく効率的なカバーレスステガノグラフィー手法を提案する。
YOLOは最適なオブジェクトの選択に使用され、これらのオブジェクトとスクランブル要素の間のマッピング辞書が確立される。
典型的な幾何学的攻撃の下では、平均して79.85%の秘密情報を復元することができる。
論文 参考訳(メタデータ) (2024-01-22T13:35:27Z) - SynCDR : Training Cross Domain Retrieval Models with Synthetic Data [69.26882668598587]
クロスドメイン検索では、同じ意味圏から2つの視覚領域にまたがるイメージを識別するためにモデルが必要である。
我々は、これらの欠落したカテゴリの例を満たすために、ドメイン間で合成データを生成する方法を示す。
最高のSynCDRモデルは、先行技術よりも最大15%パフォーマンスが向上します。
論文 参考訳(メタデータ) (2023-12-31T08:06:53Z) - SED: A Simple Encoder-Decoder for Open-Vocabulary Semantic Segmentation [91.91385816767057]
オープンボキャブラリセマンティックセグメンテーションは、ピクセルをオープンなカテゴリの集合から異なるセマンティックグループに区別する試みである。
オープン語彙セマンティックセグメンテーションのための単純なエンコーダデコーダSEDを提案する。
SED法では、ADE20KではmIoUスコアが31.6%、A6000では画像あたり82ミリ秒(ms$)のカテゴリが150である。
論文 参考訳(メタデータ) (2023-11-27T05:00:38Z) - ZeroSearch: Local Image Search from Text with Zero Shot Learning [0.0]
本稿では、ゼロショット学習を利用して、ユーザが提供するテキスト記述だけで画像クエリを作成するソリューションを提案する。
この論文の主な貢献は、事前訓練されたモデルを用いて画像から特徴を抽出するアルゴリズムの開発である。
アルゴリズムの出力は、類似性の下位順にソートされた画像のリストであり、ユーザーがより効率的に特定の画像を見つけるのに役立つ。
論文 参考訳(メタデータ) (2023-05-01T08:27:24Z) - Internet Explorer: Targeted Representation Learning on the Open Web [121.02587846761627]
現代のビジョンモデルは通常、大規模で静的なデータセットで事前訓練された微調整の汎用モデルに依存している。
本稿では,インターネットを動的に活用して,手作業で極めてうまく動作する小規模モデルを迅速に訓練することを提案する。
当社のアプローチはInternet Explorerと呼ばれ,Webを自己教師型の方法で探索することで,望ましいターゲットデータセットのパフォーマンス向上に寄与する関連事例を段階的に見つける。
論文 参考訳(メタデータ) (2023-02-27T18:59:55Z) - Scrape, Cut, Paste and Learn: Automated Dataset Generation Applied to
Parcel Logistics [58.720142291102135]
4つのステップでインスタンスセグメンテーションのための合成データセットを生成するために,完全に自動化されたパイプラインを提案する。
まず、人気のある画像検索エンジンから興味ある対象の画像を抽出する。
画像選択には,オブジェクトに依存しない事前処理,手動画像選択,CNNに基づく画像選択の3つの方法を比較する。
論文 参考訳(メタデータ) (2022-10-18T12:49:04Z) - Compatibility-aware Heterogeneous Visual Search [93.90831195353333]
既存のシステムは、同じ埋め込みモデルを使用して、クエリとギャラリーイメージの表現(埋め込み)を計算します。
1つは埋め込みを計算する各モデルのパラメータを変更し、もう1つは埋め込みを計算するアーキテクチャを変更して実行します。
最大埋め込みモデル(パラゴン)を用いた通常の(均一な)ビジュアルサーチと比較して,CMP-NASは80倍,23倍のコスト削減を実現している。
論文 参考訳(メタデータ) (2021-05-13T02:30:50Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。