論文の概要: Improving Open-World Object Localization by Discovering Background
- arxiv url: http://arxiv.org/abs/2504.17626v1
- Date: Thu, 24 Apr 2025 14:48:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.418909
- Title: Improving Open-World Object Localization by Discovering Background
- Title(参考訳): 背景発見によるオープンワールドオブジェクトローカライゼーションの改善
- Authors: Ashish Singh, Michael J. Jones, Kuan-Chuan Peng, Anoop Cherian, Moitreya Chatterjee, Erik Learned-Miller,
- Abstract要約: 本研究では,画像中の背景領域を検出し,対象領域内の対象を検知しないようオブジェクト提案ネットワークを訓練するフレームワークを提案する。
提案手法の有効性を示すため,標準ベンチマーク実験を行った。
- 参考スコア(独自算出の注目度): 36.5609406370438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our work addresses the problem of learning to localize objects in an open-world setting, i.e., given the bounding box information of a limited number of object classes during training, the goal is to localize all objects, belonging to both the training and unseen classes in an image, during inference. Towards this end, recent work in this area has focused on improving the characterization of objects either explicitly by proposing new objective functions (localization quality) or implicitly using object-centric auxiliary-information, such as depth information, pixel/region affinity map etc. In this work, we address this problem by incorporating background information to guide the learning of the notion of objectness. Specifically, we propose a novel framework to discover background regions in an image and train an object proposal network to not detect any objects in these regions. We formulate the background discovery task as that of identifying image regions that are not discriminative, i.e., those that are redundant and constitute low information content. We conduct experiments on standard benchmarks to showcase the effectiveness of our proposed approach and observe significant improvements over the previous state-of-the-art approaches for this task.
- Abstract(参考訳): 我々の研究は、オープンワールド環境でオブジェクトをローカライズする学習の問題、すなわち、トレーニング中の限られた数のオブジェクトクラスのバウンディングボックス情報を考えると、画像中のトレーニングクラスと見えないクラスの両方に属するすべてのオブジェクトをローカライズすることである。
この分野における最近の研究は、新たな目的関数(局所化品質)を提案するか、深度情報や画素/領域親和性マップなどのオブジェクト中心の補助情報を用いて暗黙的にオブジェクトの特徴づけを改善することに焦点を当てている。
本研究では,対象概念の学習を指導するために背景情報を組み込むことにより,この問題に対処する。
具体的には、画像中の背景領域を発見し、オブジェクト提案ネットワークにこれらの領域内のオブジェクトを検知しないよう訓練する新しいフレームワークを提案する。
我々は、背景発見タスクを、識別できない画像領域、すなわち冗長で情報内容の少ない画像領域を識別するタスクとして定式化する。
本研究は,提案手法の有効性を示すための標準ベンチマーク実験を行い,この課題に対する従来の最先端手法に対する大幅な改善を観察する。
関連論文リスト
- Teaching VLMs to Localize Specific Objects from In-context Examples [56.797110842152]
現在、視覚言語モデル(VLM)には、状況を考慮した特定の物体をシーン内でローカライズする学習という、基本的な認知能力がないことが分かっています。
この研究は、VLMのパーソナライズされた数ショットのローカライゼーションを探索し、ベンチマークした初めてのものである。
論文 参考訳(メタデータ) (2024-11-20T13:34:22Z) - PEEKABOO: Hiding parts of an image for unsupervised object localization [7.161489957025654]
教師なしの方法でオブジェクトをローカライズすることは、重要な視覚情報がないために大きな課題となる。
教師なしオブジェクトローカライゼーションのための単段階学習フレームワークPEEKABOOを提案する。
キーとなるアイデアは、画像の一部を選択的に隠し、残りの画像情報を活用して、明示的な監督なしにオブジェクトの位置を推測することである。
論文 参考訳(メタデータ) (2024-07-24T20:35:20Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - SemAug: Semantically Meaningful Image Augmentations for Object Detection
Through Language Grounding [5.715548995729382]
本研究では,シーンに文脈的に意味のある知識を注入することで,画像強調のための効果的な手法を提案する。
本手法は,意味的に適切な新しいオブジェクトを抽出することから,言語接地によるオブジェクト検出のための意味的意味的画像強調法であるSemAugを出発点とする。
論文 参考訳(メタデータ) (2022-08-15T19:00:56Z) - Learning to Detect Every Thing in an Open World [139.78830329914135]
我々は、Learning to Detect Every Thing (LDET)と呼ぶ、シンプルながら驚くほど強力なデータ拡張とトレーニングスキームを提案する。
可視だがラベル付けされていない背景オブジェクトの隠蔽を避けるため、元の画像の小さな領域から採取した背景画像上に注釈付きオブジェクトを貼り付ける。
LDETは、オープンワールドのインスタンスセグメンテーションタスクにおいて、多くのデータセットに大きな改善をもたらす。
論文 参考訳(メタデータ) (2021-12-03T03:56:06Z) - Cross-Image Region Mining with Region Prototypical Network for Weakly
Supervised Segmentation [45.39679291105364]
トレーニングセットのクロスイメージオブジェクトの多様性を探索する領域ネットワークRPNetを提案する。
画像にまたがる類似の物体は、地域特徴比較によって識別される。
実験の結果,提案手法はより完全で正確な擬似物体マスクを生成することがわかった。
論文 参考訳(メタデータ) (2021-08-17T02:51:02Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。