論文の概要: Prompt-Free Universal Region Proposal Network
- arxiv url: http://arxiv.org/abs/2603.17554v1
- Date: Wed, 18 Mar 2026 10:02:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.629532
- Title: Prompt-Free Universal Region Proposal Network
- Title(参考訳): プロンプトフリーユニバーサルリージョン提案ネットワーク
- Authors: Qihong Tang, Changhan Liu, Shaofeng Zhang, Wenbin Li, Qi Fan, Yang Gao,
- Abstract要約: プロンプト自由地域提案ネットワーク(PF-RPN)について紹介する。
PF-RPNは、外部のプロンプトに依存することなく、潜在的なオブジェクトを識別する。
実験結果から, 提案手法の有効性が検証された。
- 参考スコア(独自算出の注目度): 22.042809561655833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying potential objects is critical for object recognition and analysis across various computer vision applications. Existing methods typically localize potential objects by relying on exemplar images, predefined categories, or textual descriptions. However, their reliance on image and text prompts often limits flexibility, restricting adaptability in real-world scenarios. In this paper, we introduce a novel Prompt-Free Universal Region Proposal Network (PF-RPN), which identifies potential objects without relying on external prompts. First, the Sparse Image-Aware Adapter (SIA) module performs initial localization of potential objects using a learnable query embedding dynamically updated with visual features. Next, the Cascade Self-Prompt (CSP) module identifies the remaining potential objects by leveraging the self-prompted learnable embedding, autonomously aggregating informative visual features in a cascading manner. Finally, the Centerness-Guided Query Selection (CG-QS) module facilitates the selection of high-quality query embeddings using a centerness scoring network. Our method can be optimized with limited data (e.g., 5% of MS COCO data) and applied directly to various object detection application domains for identifying potential objects without fine-tuning, such as underwater object detection, industrial defect detection, and remote sensing image object detection. Experimental results across 19 datasets validate the effectiveness of our method. Code is available at https://github.com/tangqh03/PF-RPN.
- Abstract(参考訳): 潜在的なオブジェクトを特定することは、様々なコンピュータビジョンアプリケーションにおけるオブジェクトの認識と分析に不可欠である。
既存の手法は、典型的な画像、定義済みのカテゴリ、テキスト記述に頼ることで、潜在的オブジェクトをローカライズする。
しかし、画像とテキストへの依存は、しばしば柔軟性を制限し、現実のシナリオにおける適応性を制限する。
本稿では,プロンプト自由地域提案ネットワーク(PF-RPN, Prompt-Free Universal Region Proposal Network)を紹介する。
まず、Sparse Image-Aware Adapter (SIA)モジュールは、視覚的特徴によって動的に更新された学習可能なクエリ埋め込みを使用して、潜在的オブジェクトの初期ローカライズを実行する。
次に、カスケード・セルフ・プロンプト(CSP)モジュールは、自己学習可能な埋め込みを活用し、情報的視覚的特徴をカスケード的に自律的に集約することで、残りの潜在的なオブジェクトを識別する。
最後に、Centerness-Guided Query Selection (CG-QS)モジュールは、Centernessスコアリングネットワークを用いた高品質なクエリ埋め込みの選択を容易にする。
提案手法は限られたデータ(例えばMS COCOデータの5%)で最適化可能であり,水中物体検出,産業的欠陥検出,リモートセンシング画像検出などの微調整を伴わないオブジェクト検出アプリケーションドメインに直接適用することができる。
実験結果から, 提案手法の有効性が検証された。
コードはhttps://github.com/tangqh03/PF-RPNで公開されている。
関連論文リスト
- Finding NeMO: A Geometry-Aware Representation of Template Views for Few-Shot Perception [9.145558382187524]
本稿では、RGB画像を用いたトレーニング中に見つからない物体の6DoFポーズの検出、セグメント化、推定に使用できる新しいオブジェクト中心表現を提案する。
本手法は,オブジェクトがスパースなオブジェクトのような点群を生成するために,オブジェクトを描写するRGBテンプレートビューを少数必要とするようなエンコーダから構成される。
次に、デコーダは、オブジェクトをクエリ画像とともに符号化し、様々な密集した予測を生成する。
論文 参考訳(メタデータ) (2026-02-04T09:12:05Z) - Fine-Grained Open-Vocabulary Object Recognition via User-Guided Segmentation [1.590984668118904]
FOCUS: ユーザガイドによるきめ細かいオープン語彙オブジェクト認識。
FOCUSと呼ばれる新しい基礎モデルに基づく検出手法を提案する。
論文 参考訳(メタデータ) (2024-11-23T18:13:27Z) - United Domain Cognition Network for Salient Object Detection in Optical Remote Sensing Images [21.76732661032257]
周波数領域と空間領域のグローバルローカル情報を共同で探索する新しい統一ドメイン認知ネットワーク(UDCNet)を提案する。
実験結果から提案したUDCNetが24種類の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-11T04:12:27Z) - Detect2Interact: Localizing Object Key Field in Visual Question Answering (VQA) with LLMs [5.891295920078768]
本稿では,物体の視覚的フィールド検出のための高度な手法を提案する。
まず,画像中の物体の詳細な空間地図を生成するために,SAMモデルを用いた。
次に、Vision Studioを使用してセマンティックオブジェクト記述を抽出する。
第3に、GPT-4の常識知識を用いて、オブジェクトの意味論と空間マップとのギャップを埋める。
論文 参考訳(メタデータ) (2024-04-01T14:53:36Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - AdaCon: Adaptive Context-Aware Object Detection for Resource-Constrained
Embedded Devices [2.5345835184316536]
畳み込みニューラルネットワークは、オブジェクト検出タスクにおいて最先端の精度を達成する。
リソース制約のあるエッジデバイスへの展開に挑戦する計算とエネルギーの要求が大きい。
本稿では,物体検出モデルの効率を高めるために,異なる対象カテゴリが共同で発生する確率に関する事前知識を活用する。
COCOデータセットを用いた実験の結果, 適応物体検出モデルでは, エネルギー消費量が最大45%減少し, 遅延が最大27%減少し, 物体検出の平均精度(AP)が低下することがわかった。
論文 参考訳(メタデータ) (2021-08-16T01:21:55Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。