論文の概要: SAP-DETR: Bridging the Gap Between Salient Points and Queries-Based
Transformer Detector for Fast Model Convergency
- arxiv url: http://arxiv.org/abs/2211.02006v1
- Date: Thu, 3 Nov 2022 17:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 13:35:50.512970
- Title: SAP-DETR: Bridging the Gap Between Salient Points and Queries-Based
Transformer Detector for Fast Model Convergency
- Title(参考訳): SAP-DETR:高速モデル収束のためのサージェントポイントとキューベーストランス検出器間のギャップを埋める
- Authors: Yang Liu, Yao Zhang, Yixin Wang, Yang Zhang, Jiang Tian, Zhongchao
Shi, Jianping Fan, Zhiqiang He
- Abstract要約: DETRに基づくアプローチは、トランスフォーマー検出器の収束を加速するために中心概念空間を適用する。
本稿では,SAP-DETR(Salient Point-based DETR)を提案する。
実験により, SAP-DETR 1.4倍の収束速度と競争性能が得られた。
- 参考スコア(独自算出の注目度): 40.04140037952051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the dominant DETR-based approaches apply central-concept spatial
prior to accelerate Transformer detector convergency. These methods gradually
refine the reference points to the center of target objects and imbue object
queries with the updated central reference information for spatially
conditional attention. However, centralizing reference points may severely
deteriorate queries' saliency and confuse detectors due to the indiscriminative
spatial prior. To bridge the gap between the reference points of salient
queries and Transformer detectors, we propose SAlient Point-based DETR
(SAP-DETR) by treating object detection as a transformation from salient points
to instance objects. In SAP-DETR, we explicitly initialize a query-specific
reference point for each object query, gradually aggregate them into an
instance object, and then predict the distance from each side of the bounding
box to these points. By rapidly attending to query-specific reference region
and other conditional extreme regions from the image features, SAP-DETR can
effectively bridge the gap between the salient point and the query-based
Transformer detector with a significant convergency speed. Our extensive
experiments have demonstrated that SAP-DETR achieves 1.4 times convergency
speed with competitive performance. Under the standard training scheme,
SAP-DETR stably promotes the SOTA approaches by 1.0 AP. Based on ResNet-DC-101,
SAP-DETR achieves 46.9 AP.
- Abstract(参考訳): 近年、支配的なDETRベースのアプローチはトランスフォーマー検出器の収束を加速するために中心概念空間を適用している。
これらの手法は,対象対象物の中心への参照点を徐々に洗練し,更新された集中参照情報を用いて空間的注意を喚起する。
しかしながら、参照ポイントの集中化はクエリの給与を著しく低下させ、非差別的な空間的プリミティブのために検出器を混乱させる可能性がある。
本稿では,問合せの基準点とトランス検出器とのギャップを埋めるため,問合せ点からインスタンスオブジェクトへの変換として対象検出を扱い,問合せ点に基づくdetr(sap-detr)を提案する。
SAP-DETRでは、各オブジェクトクエリに対してクエリ固有の参照ポイントを明示的に初期化し、徐々にインスタンスオブジェクトに集約し、バウンディングボックスの両側からこれらのポイントまでの距離を予測する。
画像特徴からクエリ固有参照領域や他の条件極端領域に迅速に参加することにより、SAP-DETRは、サージェントポイントとクエリベースのトランスフォーマー検出器とのギャップを、かなりの収束速度で効果的に橋渡しすることができる。
我々は,SAP-DETRが競争性能の1.4倍の収束速度を達成できることを実証した。
標準トレーニングスキームでは、SAP-DETRは1.0 APでSOTAアプローチを安定的に促進する。
ResNet-DC-101に基づいて、SAP-DETRは46.9 APを達成した。
関連論文リスト
- OrientedFormer: An End-to-End Transformer-Based Oriented Object Detector in Remote Sensing Images [26.37802649901314]
リモートセンシング画像におけるオブジェクト指向物体検出は、複数方向のオブジェクトが分散しているため、難しい課題である。
これらの問題に対処する3つの専用モジュールからなるエンドツーエンドのトランスフォーマベース指向オブジェクト検出器を提案する。
従来のエンドツーエンド検出器と比較して、OrientedFormerはDIOR-RとDOTA-v1.0でそれぞれ1.16および1.21 AP$_50$を獲得し、トレーニングエポックを3$times$から1$times$に下げる。
論文 参考訳(メタデータ) (2024-09-29T10:36:33Z) - SpecDETR: A Transformer-based Hyperspectral Point Object Detection Network [32.7318504162588]
ハイパースペクトル目標検出(HTD)は、ハイパースペクトル画像のスペクトル情報に基づいて材料を識別し、ポイントターゲットを検出することを目的としている。
既存のHTD法は画素単位のバイナリ分類に基づいて開発されており、ポイントターゲットの特徴表現能力を制限している。
ハイパースペクトル多クラス点オブジェクト検出のための最初の専用ネットワーク SpecDETR を提案する。
我々は、SPODと呼ばれるシミュレーションされたハイパースペクトル・ポイント・オブジェクト検出ベンチマークを開発し、ハイパースペクトル・マルチクラス・ポイント・オブジェクト検出における現在のオブジェクト検出ネットワークとHTD法の性能を初めて評価・比較した。
論文 参考訳(メタデータ) (2024-05-16T14:45:06Z) - Cascade-DETR: Delving into High-Quality Universal Object Detection [99.62131881419143]
高品質な普遍物体検出のためのカスケードDETRを提案する。
本稿では,オブジェクト中心情報を検出デコーダに明示的に統合するカスケードアテンション層を提案する。
最後に、多様なドメインから10のデータセットを含む汎用オブジェクト検出ベンチマークUDB10を紹介する。
論文 参考訳(メタデータ) (2023-07-20T17:11:20Z) - Time-rEversed diffusioN tEnsor Transformer: A new TENET of Few-Shot
Object Detection [35.54153749138406]
本稿では,時間rEversed diffusioN tEnsor Transformer (TENET)を提案する。
また,高階表現を備えたTransformer Relation Head (TRH) を提案し,クエリ領域とサポートセット全体の相関を符号化する。
当モデルでは,PASCAL VOC,FSOD,COCOの最先端結果が得られた。
論文 参考訳(メタデータ) (2022-10-30T17:40:12Z) - Pair DETR: Contrastive Learning Speeds Up DETR Training [0.6491645162078056]
本稿では、DreTRの主な問題である緩やかな収束に対処するための簡単なアプローチを提案する。
2つのデコーダを用いて、一対のキーポイント、左上隅、中央としてオブジェクト境界ボックスを検出する。
実験により、Pair DETRは元のDETRより少なくとも10倍早く収束し、トレーニング中にConditional DETRより1.5倍速く収束できることが示された。
論文 参考訳(メタデータ) (2022-10-29T03:02:49Z) - Robust Change Detection Based on Neural Descriptor Fields [53.111397800478294]
我々は、部分的に重なり合う観測結果とノイズのある局所化結果に頑健なオブジェクトレベルのオンライン変化検出手法を開発した。
形状符号の類似性を利用して物体を連想させ, 局所的な物体近傍の空間配置を比較することにより, 観測重複や局所雑音に対する頑健性を示す。
論文 参考訳(メタデータ) (2022-08-01T17:45:36Z) - Semantic-Aligned Matching for Enhanced DETR Convergence and Multi-Scale
Feature Fusion [95.7732308775325]
提案したDetection TRansformer (DETR) は、オブジェクト検出のための完全なエンドツーエンドパラダイムを確立している。
DETRは遅いトレーニング収束に悩まされており、様々な検出タスクの適用性を妨げている。
我々は,DETRの収束を加速し,検出性能を向上させるためにセマンティック・アラインド・マッチDreTR++を設計する。
論文 参考訳(メタデータ) (2022-07-28T15:34:29Z) - Oriented Object Detection with Transformer [51.634913687632604]
我々は,エンドツーエンドネットワークに基づくTRansformer(bf O2DETR$)によるオブジェクト指向オブジェクト検出を実装した。
注意機構を奥行き分離可能な畳み込みに置き換えることで,トランスフォーマーの簡易かつ高効率なエンコーダを設計する。
私たちの$rm O2DETR$は、オブジェクト指向オブジェクト検出の分野における別の新しいベンチマークになり、より高速なR-CNNとRetinaNetに対して最大3.85mAPの改善が達成されます。
論文 参考訳(メタデータ) (2021-06-06T14:57:17Z) - DA-DETR: Domain Adaptive Detection Transformer with Information Fusion [53.25930448542148]
DA-DETRは、ラベル付きソースドメインからラベルなしターゲットドメインへの効果的な転送のための情報融合を導入するドメイン適応型オブジェクト検出変換器である。
本稿では,CNN機能とトランスフォーマー機能を融合した新しいCNN-Transformer Blender(CTBlender)を提案する。
CTBlenderはTransformer機能を使用して、高レベルの意味情報と低レベルの空間情報が融合した複数のスケールでCNN機能を変調し、正確な物体識別と位置決めを行う。
論文 参考訳(メタデータ) (2021-03-31T13:55:56Z) - Spatio-temporal Tubelet Feature Aggregation and Object Linking in Videos [2.4923006485141284]
論文は、オブジェクト分類を改善するために、利用可能なビデオの時間情報をどのように活用するかという問題に対処する。
本稿では,FANetと呼ばれる2段階の物体検出器を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。