論文の概要: Addressing Visual Search in Open and Closed Set Settings
- arxiv url: http://arxiv.org/abs/2012.06509v2
- Date: Wed, 14 Apr 2021 21:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 03:12:18.512280
- Title: Addressing Visual Search in Open and Closed Set Settings
- Title(参考訳): オープンおよびクローズド設定におけるビジュアル検索の対応
- Authors: Nathan Drenkow, Philippe Burlina, Neil Fendley, Onyekachi Odoemene,
Jared Markowitz
- Abstract要約: 低解像度ギスト画像から画素レベルのオブジェクト性を予測する手法を提案する。
次に,高分解能で局所的にオブジェクト検出を行う領域を選択する。
第二に、未確認の可能性のある対象クラスの全てのインスタンスを探索するオープンセットビジュアルサーチの新しい手法を提案する。
- 参考スコア(独自算出の注目度): 8.928169373673777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Searching for small objects in large images is a task that is both
challenging for current deep learning systems and important in numerous
real-world applications, such as remote sensing and medical imaging. Thorough
scanning of very large images is computationally expensive, particularly at
resolutions sufficient to capture small objects. The smaller an object of
interest, the more likely it is to be obscured by clutter or otherwise deemed
insignificant. We examine these issues in the context of two complementary
problems: closed-set object detection and open-set target search. First, we
present a method for predicting pixel-level objectness from a low resolution
gist image, which we then use to select regions for performing object detection
locally at high resolution. This approach has the benefit of not being fixed to
a predetermined grid, thereby requiring fewer costly high-resolution glimpses
than existing methods. Second, we propose a novel strategy for open-set visual
search that seeks to find all instances of a target class which may be
previously unseen and is defined by a single image. We interpret both detection
problems through a probabilistic, Bayesian lens, whereby the objectness maps
produced by our method serve as priors in a maximum-a-posteriori approach to
the detection step. We evaluate the end-to-end performance of both the
combination of our patch selection strategy with this target search approach
and the combination of our patch selection strategy with standard object
detection methods. Both elements of our approach are seen to significantly
outperform baseline strategies.
- Abstract(参考訳): 大規模画像における小さな物体の探索は、現在のディープラーニングシステムでは難しい課題であり、リモートセンシングや医療画像などの多くの現実世界の応用において重要である。
非常に大きな画像の粗い走査は計算に高価であり、特に小さな物体を捉えるのに十分な解像度である。
興味の対象が小さければ小さいほど、散らかったり、無意味と見なされる可能性が高くなる。
これらの問題をクローズドセットオブジェクト検出とオープンセットターゲット探索という2つの相補的問題の文脈で検討する。
まず,低解像度のgist画像から画素レベルの被写体を予測し,高分解能で局所的に被写体検出を行う領域を選択する手法を提案する。
このアプローチは、所定のグリッドに固定されない利点があり、既存の方法よりもコストのかかる高解像度の垣根を必要とする。
第2に,これまで見つからず,単一の画像で定義されていた対象クラスの全インスタンスを探索する,オープンセットビジュアル検索の新しい手法を提案する。
両検出問題を確率的ベイズレンズを用いて解釈し,提案手法が生成する対象性マップが検出ステップに対する最大ポストエリリアプローチの先行として機能することを示す。
我々は,この目標探索手法によるパッチ選択戦略と,パッチ選択戦略と標準オブジェクト検出手法の組み合わせを組み合わせることで,エンド・ツー・エンドの性能を評価する。
私たちのアプローチの2つの要素は、ベースライン戦略を大幅に上回っています。
関連論文リスト
- A Coarse to Fine Framework for Object Detection in High Resolution Image [8.316322664637537]
オブジェクト検出の現在のアプローチでは、高解像度画像における小さなオブジェクトや大規模な分散問題を検出することはめったにない。
本稿では,オブジェクト検出の精度を,特に小さなオブジェクトや大規模分散シーンに対して向上させる,シンプルで効率的なアプローチを提案する。
提案手法は,高分解能画像における物体の空間と情報を有効利用することにより,より効率的に検出できる。
論文 参考訳(メタデータ) (2023-03-02T13:04:33Z) - Focus-and-Detect: A Small Object Detection Framework for Aerial Images [1.911678487931003]
我々はFocus-and-Detectと呼ばれる2段階のオブジェクト検出フレームワークを提案する。
第1段階は、焦点領域を構成するオブジェクトのクラスタを生成する。
第2段階は対象検出器ネットワークであり、焦点領域内の物体を予測する。
提案した2段階のフレームワークは,VisDrone検証データセットのAPスコアが42.06であることを示す。
論文 参考訳(メタデータ) (2022-03-24T10:43:56Z) - Hybrid Optimized Deep Convolution Neural Network based Learning Model
for Object Detection [0.0]
物体の識別はコンピュータビジョンにおける最も基本的で難しい問題の1つである。
近年,ディープラーニングに基づく物体検出技術が大衆の関心を集めている。
本研究では,自律型物体検出システムを構築するために,独自のディープラーニング分類手法を用いる。
提案するフレームワークは検出精度0.9864であり、現在の技術よりも高い。
論文 参考訳(メタデータ) (2022-03-02T04:39:37Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - POMP: Pomcp-based Online Motion Planning for active visual search in
indoor environments [89.43830036483901]
本稿では, 屋内環境におけるオブジェクトのアクティブビジュアルサーチ(AVS)の最適ポリシーを, オンライン設定で学習する問題に焦点をあてる。
提案手法はエージェントの現在のポーズとRGB-Dフレームを入力として使用する。
提案手法を利用可能なAVDベンチマークで検証し,平均成功率0.76,平均パス長17.1とした。
論文 参考訳(メタデータ) (2020-09-17T08:23:50Z) - Tasks Integrated Networks: Joint Detection and Retrieval for Image
Search [99.49021025124405]
多くの現実世界の探索シナリオ(例えばビデオ監視)では、オブジェクトは正確に検出または注釈付けされることはめったにない。
まず、エンド・ツー・エンド統合ネット(I-Net)を紹介します。
さらに,2つの新しいコントリビューションを行うDC-I-Netという改良されたI-Netを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:57:50Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - Toward unsupervised, multi-object discovery in large-scale image
collections [26.39475298878971]
本稿では,Vo et al の最適化手法に基づく。
そこで我々は,新しいサリエンシに基づく領域提案アルゴリズムを提案する。
提案手法の階層構造を有効正則化器として活用する。
論文 参考訳(メタデータ) (2020-07-06T11:43:47Z) - Localizing Grouped Instances for Efficient Detection in Low-Resource
Scenarios [27.920304852537534]
可変物体の大きさや密度に適応するフレキシブルな検出手法を提案する。
我々は検出段階の連続に頼り、それぞれが個人だけでなく、対象の群を予測できる能力を持っている。
本稿では,2つの航空画像データセットの実験結果について報告し,提案手法が標準単発検出器よりも精度が高く,計算効率も高いことを示す。
論文 参考訳(メタデータ) (2020-04-27T07:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。