論文の概要: A Visual Active Search Framework for Geospatial Exploration
- arxiv url: http://arxiv.org/abs/2211.15788v1
- Date: Mon, 28 Nov 2022 21:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 14:52:10.513598
- Title: A Visual Active Search Framework for Geospatial Exploration
- Title(参考訳): 地理空間探索のためのビジュアルアクティブ検索フレームワーク
- Authors: Anindya Sarkar, Michael Lanier, Scott Alfeld, Roman Garnett, Nathan
Jacobs, Yevgeniy Vorobeychik
- Abstract要約: 多くの問題は、ポーチ活動の検出から人身売買まで、航空画像による地理空間探索の形式と見なすことができる。
本研究では,視覚的能動探索(VAS)フレームワークを用いて,広い領域のイメージを入力とし,対象対象物のサンプルをできるだけ多く特定することを目的とする。
本稿では,完全注釈付き検索タスクの集合をトレーニングデータとして活用して検索ポリシーを学習し,入力画像の特徴とアクティブ検索状態の自然な表現を組み合わせることを目的とした,VASのための強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 42.80791579596411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many problems can be viewed as forms of geospatial search aided by aerial
imagery, with examples ranging from detecting poaching activity to human
trafficking. We model this class of problems in a visual active search (VAS)
framework, which takes as input an image of a broad area, and aims to identify
as many examples of a target object as possible. It does this through a limited
sequence of queries, each of which verifies whether an example is present in a
given region. We propose a reinforcement learning approach for VAS that
leverages a collection of fully annotated search tasks as training data to
learn a search policy, and combines features of the input image with a natural
representation of active search state. Additionally, we propose domain
adaptation techniques to improve the policy at decision time when training data
is not fully reflective of the test-time distribution of VAS tasks. Through
extensive experiments on several satellite imagery datasets, we show that the
proposed approach significantly outperforms several strong baselines. Code and
data will be made public.
- Abstract(参考訳): 多くの問題は航空画像による地理空間探索の一種と見なすことができ、例えば、密猟活動の検出から人身売買まで多岐にわたる。
本研究では,視覚的能動探索(VAS)フレームワークを用いて,広い領域のイメージを入力とし,対象対象物のできるだけ多くの例を特定することを目的とする。
これはクエリの限られたシーケンスを通じて行われ、それぞれが与えられた領域にサンプルが存在するかどうかを検証する。
本稿では,完全注釈付き検索タスクの集合を学習データとして活用し,検索方針を学習し,入力画像の特徴と能動検索状態の自然な表現を組み合わせる,vasのための強化学習手法を提案する。
さらに,VASタスクのテスト時間分布を完全に反映していない場合の判定時のポリシー改善のためのドメイン適応手法を提案する。
複数の衛星画像データセットに関する広範囲な実験を通じて,提案手法が複数の強力なベースラインを上回ることを示した。
コードとデータは公開されます。
関連論文リスト
- Local Feature Matching Using Deep Learning: A Survey [19.322545965903608]
局所的な特徴マッチングは、画像検索、3D再構成、オブジェクト認識といった領域を含むコンピュータビジョンの領域において幅広い応用を享受する。
近年,深層学習モデルの導入により,局所的特徴マッチング手法の探究が盛んに行われている。
また,移動構造,リモートセンシング画像登録,医用画像登録などの多様な領域における局所的特徴マッチングの実践的応用についても検討した。
論文 参考訳(メタデータ) (2024-01-31T04:32:41Z) - A Partially Supervised Reinforcement Learning Framework for Visual
Active Search [36.966522001393734]
ビジュアルアクティブサーチ(VAS)は、探索のガイドとして視覚的手がかりを用いるモデリングフレームワークとして提案されている。
本稿では,DRLの長所と従来のアクティブ検索の長所を併用して,探索ポリシーを予測モジュールに分解する手法を提案する。
そこで我々は,学習時間と意思決定時間の両方で得られた教師付き情報を効果的に活用できる新しいメタラーニング手法を開発した。
論文 参考訳(メタデータ) (2023-10-15T00:29:35Z) - FORB: A Flat Object Retrieval Benchmark for Universal Image Embedding [7.272083488859574]
多様なパターンを持つ平坦な画像に対して,ビジュアル検索手法をベンチマークするための新しいデータセットを提案する。
我々のフラットオブジェクト検索ベンチマーク(FORB)は一般的に採用されている3Dオブジェクトドメインを補完する。
アウト・オブ・ディストリビューション領域のイメージ埋め込み品質を評価するためのテストベッドとして機能する。
論文 参考訳(メタデータ) (2023-09-28T08:41:51Z) - RF-Next: Efficient Receptive Field Search for Convolutional Neural
Networks [86.6139619721343]
そこで本研究では,グローバル・ローカル・サーチ手法を用いて,より優れた受容場の組み合わせを求める。
我々の検索手法は, 粗い組み合わせを見つけるためにグローバル検索と, 洗練された受容場の組み合わせを得るために局所探索の両方を利用する。
我々のRF-Nextモデルは、様々なモデルに受容場探索を接続し、多くのタスクのパフォーマンスを高める。
論文 参考訳(メタデータ) (2022-06-14T06:56:26Z) - CrossBeam: Learning to Search in Bottom-Up Program Synthesis [51.37514793318815]
ボトムアップ合成のためのハンズオン検索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
私たちのアプローチは、CrossBeamと呼ばれ、ニューラルモデルを使用して、以前に探索されたプログラムを新しいプログラムに組み合わせる方法を選択します。
我々はCrossBeamが効率的に検索することを学び、最先端技術と比較してプログラム空間のより小さな部分を探索する。
論文 参考訳(メタデータ) (2022-03-20T04:41:05Z) - Global-Local Context Network for Person Search [125.51080862575326]
パーソンサーチは、自然に切り刻まれた画像からクエリーを共同でローカライズし、識別することを目的としている。
我々は,対象人物を取り巻く環境情報を多様かつ局所的に利用し,それぞれがシーンとグループコンテキストを参照する。
本稿では,機能強化を目的としたグローバル・ローカル・コンテキスト・ネットワーク(GLCNet)を提案する。
論文 参考訳(メタデータ) (2021-12-05T07:38:53Z) - Exposing Query Identification for Search Transparency [69.06545074617685]
本稿では,検索システムの2つのクラスにおいて,クエリとドキュメントの役割を逆転させることにより,検索タスクとしてのEQIの実現可能性について検討する。
本研究では,クエリのランク付けの質を評価するための評価基準を導出するとともに,近似EQIの様々な実践的側面に着目した経験的分析を行う。
論文 参考訳(メタデータ) (2021-10-14T20:19:27Z) - Nonmyopic Multifidelity Active Search [15.689830609697685]
本稿では,多要素能動探索のモデルと,この設定のための新しい,計算効率の良いポリシーを提案する。
実世界のデータセット上でのソリューションの性能を評価し,自然ベンチマークよりもはるかに優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-11T12:55:51Z) - Addressing Visual Search in Open and Closed Set Settings [8.928169373673777]
低解像度ギスト画像から画素レベルのオブジェクト性を予測する手法を提案する。
次に,高分解能で局所的にオブジェクト検出を行う領域を選択する。
第二に、未確認の可能性のある対象クラスの全てのインスタンスを探索するオープンセットビジュアルサーチの新しい手法を提案する。
論文 参考訳(メタデータ) (2020-12-11T17:21:28Z) - Tasks Integrated Networks: Joint Detection and Retrieval for Image
Search [99.49021025124405]
多くの現実世界の探索シナリオ(例えばビデオ監視)では、オブジェクトは正確に検出または注釈付けされることはめったにない。
まず、エンド・ツー・エンド統合ネット(I-Net)を紹介します。
さらに,2つの新しいコントリビューションを行うDC-I-Netという改良されたI-Netを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。