論文の概要: A Visual Active Search Framework for Geospatial Exploration
- arxiv url: http://arxiv.org/abs/2211.15788v3
- Date: Sun, 29 Oct 2023 20:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 23:26:30.311816
- Title: A Visual Active Search Framework for Geospatial Exploration
- Title(参考訳): 地理空間探索のためのビジュアルアクティブ検索フレームワーク
- Authors: Anindya Sarkar, Michael Lanier, Scott Alfeld, Jiarui Feng, Roman
Garnett, Nathan Jacobs, Yevgeniy Vorobeychik
- Abstract要約: 多くの問題は、航空画像によって支援された地理空間探索の形式と見なすことができる。
我々は3つの重要な入力を持つ視覚的能動探索(VAS)フレームワークでこの問題をモデル化する。
完全注釈付き検索タスクの集合からメタ検索ポリシーを学習するVASのための強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 36.31732056074638
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many problems can be viewed as forms of geospatial search aided by aerial
imagery, with examples ranging from detecting poaching activity to human
trafficking. We model this class of problems in a visual active search (VAS)
framework, which has three key inputs: (1) an image of the entire search area,
which is subdivided into regions, (2) a local search function, which determines
whether a previously unseen object class is present in a given region, and (3)
a fixed search budget, which limits the number of times the local search
function can be evaluated. The goal is to maximize the number of objects found
within the search budget. We propose a reinforcement learning approach for VAS
that learns a meta-search policy from a collection of fully annotated search
tasks. This meta-search policy is then used to dynamically search for a novel
target-object class, leveraging the outcome of any previous queries to
determine where to query next. Through extensive experiments on several
large-scale satellite imagery datasets, we show that the proposed approach
significantly outperforms several strong baselines. We also propose novel
domain adaptation techniques that improve the policy at decision time when
there is a significant domain gap with the training data. Code is publicly
available.
- Abstract(参考訳): 多くの問題は航空画像による地理空間探索の一種と見なすことができ、例えば、密猟活動の検出から人身売買まで多岐にわたる。
我々は,(1)領域に区分された探索領域全体の画像,(2)特定の領域に未発見のオブジェクトクラスが存在するか否かを判定する局所探索関数,(3)局所探索関数の回数を制限する固定検索予算,の3つの主要な入力を有するビジュアルアクティブ検索(vas)フレームワークにおいて,この問題のクラスをモデル化する。
目標は、検索予算に含まれるオブジェクトの数を最大化することです。
完全注釈付き検索タスクの集合からメタ検索ポリシーを学習するVASのための強化学習手法を提案する。
このメタ検索ポリシは、新しいターゲットオブジェクトクラスを動的に検索するために使用され、以前のクエリの結果を活用して、次にクエリする場所を決定する。
大規模衛星画像データセットの広範な実験を通じて,提案手法がいくつかの強いベースラインを著しく上回ることを示す。
また、トレーニングデータと重要なドメインギャップがある場合、決定時のポリシーを改善する新しいドメイン適応手法を提案する。
コードは公開されている。
関連論文リスト
- Local Feature Matching Using Deep Learning: A Survey [19.322545965903608]
局所的な特徴マッチングは、画像検索、3D再構成、オブジェクト認識といった領域を含むコンピュータビジョンの領域において幅広い応用を享受する。
近年,深層学習モデルの導入により,局所的特徴マッチング手法の探究が盛んに行われている。
また,移動構造,リモートセンシング画像登録,医用画像登録などの多様な領域における局所的特徴マッチングの実践的応用についても検討した。
論文 参考訳(メタデータ) (2024-01-31T04:32:41Z) - A Partially Supervised Reinforcement Learning Framework for Visual
Active Search [36.966522001393734]
ビジュアルアクティブサーチ(VAS)は、探索のガイドとして視覚的手がかりを用いるモデリングフレームワークとして提案されている。
本稿では,DRLの長所と従来のアクティブ検索の長所を併用して,探索ポリシーを予測モジュールに分解する手法を提案する。
そこで我々は,学習時間と意思決定時間の両方で得られた教師付き情報を効果的に活用できる新しいメタラーニング手法を開発した。
論文 参考訳(メタデータ) (2023-10-15T00:29:35Z) - FORB: A Flat Object Retrieval Benchmark for Universal Image Embedding [7.272083488859574]
多様なパターンを持つ平坦な画像に対して,ビジュアル検索手法をベンチマークするための新しいデータセットを提案する。
我々のフラットオブジェクト検索ベンチマーク(FORB)は一般的に採用されている3Dオブジェクトドメインを補完する。
アウト・オブ・ディストリビューション領域のイメージ埋め込み品質を評価するためのテストベッドとして機能する。
論文 参考訳(メタデータ) (2023-09-28T08:41:51Z) - RF-Next: Efficient Receptive Field Search for Convolutional Neural
Networks [86.6139619721343]
そこで本研究では,グローバル・ローカル・サーチ手法を用いて,より優れた受容場の組み合わせを求める。
我々の検索手法は, 粗い組み合わせを見つけるためにグローバル検索と, 洗練された受容場の組み合わせを得るために局所探索の両方を利用する。
我々のRF-Nextモデルは、様々なモデルに受容場探索を接続し、多くのタスクのパフォーマンスを高める。
論文 参考訳(メタデータ) (2022-06-14T06:56:26Z) - CrossBeam: Learning to Search in Bottom-Up Program Synthesis [51.37514793318815]
ボトムアップ合成のためのハンズオン検索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
私たちのアプローチは、CrossBeamと呼ばれ、ニューラルモデルを使用して、以前に探索されたプログラムを新しいプログラムに組み合わせる方法を選択します。
我々はCrossBeamが効率的に検索することを学び、最先端技術と比較してプログラム空間のより小さな部分を探索する。
論文 参考訳(メタデータ) (2022-03-20T04:41:05Z) - Global-Local Context Network for Person Search [125.51080862575326]
パーソンサーチは、自然に切り刻まれた画像からクエリーを共同でローカライズし、識別することを目的としている。
我々は,対象人物を取り巻く環境情報を多様かつ局所的に利用し,それぞれがシーンとグループコンテキストを参照する。
本稿では,機能強化を目的としたグローバル・ローカル・コンテキスト・ネットワーク(GLCNet)を提案する。
論文 参考訳(メタデータ) (2021-12-05T07:38:53Z) - Exposing Query Identification for Search Transparency [69.06545074617685]
本稿では,検索システムの2つのクラスにおいて,クエリとドキュメントの役割を逆転させることにより,検索タスクとしてのEQIの実現可能性について検討する。
本研究では,クエリのランク付けの質を評価するための評価基準を導出するとともに,近似EQIの様々な実践的側面に着目した経験的分析を行う。
論文 参考訳(メタデータ) (2021-10-14T20:19:27Z) - Nonmyopic Multifidelity Active Search [15.689830609697685]
本稿では,多要素能動探索のモデルと,この設定のための新しい,計算効率の良いポリシーを提案する。
実世界のデータセット上でのソリューションの性能を評価し,自然ベンチマークよりもはるかに優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-11T12:55:51Z) - Addressing Visual Search in Open and Closed Set Settings [8.928169373673777]
低解像度ギスト画像から画素レベルのオブジェクト性を予測する手法を提案する。
次に,高分解能で局所的にオブジェクト検出を行う領域を選択する。
第二に、未確認の可能性のある対象クラスの全てのインスタンスを探索するオープンセットビジュアルサーチの新しい手法を提案する。
論文 参考訳(メタデータ) (2020-12-11T17:21:28Z) - Tasks Integrated Networks: Joint Detection and Retrieval for Image
Search [99.49021025124405]
多くの現実世界の探索シナリオ(例えばビデオ監視)では、オブジェクトは正確に検出または注釈付けされることはめったにない。
まず、エンド・ツー・エンド統合ネット(I-Net)を紹介します。
さらに,2つの新しいコントリビューションを行うDC-I-Netという改良されたI-Netを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。