論文の概要: Deformable DETR: Deformable Transformers for End-to-End Object Detection
- arxiv url: http://arxiv.org/abs/2010.04159v4
- Date: Thu, 18 Mar 2021 03:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 12:34:02.907051
- Title: Deformable DETR: Deformable Transformers for End-to-End Object Detection
- Title(参考訳): 変形可能なdetr:エンドツーエンドオブジェクト検出のための変形可能なトランス
- Authors: Xizhou Zhu, Weijie Su, Lewei Lu, Bin Li, Xiaogang Wang, Jifeng Dai
- Abstract要約: DETRは緩やかな収束と限られた特徴空間分解能に悩まされている。
Deformable DETRを提案し、注意モジュールは参照周辺のキーサンプリングポイントの小さなセットにしか対応しない。
変形可能なDETRは10倍のトレーニングエポックでDETRよりも優れたパフォーマンスを実現することができる。
- 参考スコア(独自算出の注目度): 41.050320861408046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DETR has been recently proposed to eliminate the need for many hand-designed
components in object detection while demonstrating good performance. However,
it suffers from slow convergence and limited feature spatial resolution, due to
the limitation of Transformer attention modules in processing image feature
maps. To mitigate these issues, we proposed Deformable DETR, whose attention
modules only attend to a small set of key sampling points around a reference.
Deformable DETR can achieve better performance than DETR (especially on small
objects) with 10 times less training epochs. Extensive experiments on the COCO
benchmark demonstrate the effectiveness of our approach. Code is released at
https://github.com/fundamentalvision/Deformable-DETR.
- Abstract(参考訳): DETRは、オブジェクト検出において多くの手設計コンポーネントの必要性を排除し、優れた性能を示すために最近提案されている。
しかし、画像特徴マップの処理におけるトランスフォーマーアテンションモジュールの制限のため、収束が遅く、空間分解能も限られている。
これらの問題を緩和するため,我々は,注意モジュールが参照を囲む少数のキーサンプリングポイントにしか対応しない変形可能なdetrを提案した。
変形可能なDETRは、DeTR(特に小さなオブジェクト)よりも10倍のトレーニングエポックで優れたパフォーマンスを実現することができる。
COCOベンチマークの大規模な実験は、我々のアプローチの有効性を実証している。
コードはhttps://github.com/fundamentalvision/Deformable-DETRで公開されている。
関連論文リスト
- RotaTR: Detection Transformer for Dense and Rotated Object [0.49764328892172144]
指向性検出へのDETRの拡張として,回転物体検出TRansformer(RotaTR)を提案する。
具体的には、DTRの指向目標検出能力を高めるために、回転感度変形(RSDeform)アテンションを設計する。
RotaTRは、元のDETRと比較して密度と向きの強い物体を検出するのに大きな利点を示している。
論文 参考訳(メタデータ) (2023-12-05T15:06:04Z) - Contrastive Learning for Multi-Object Tracking with Transformers [79.61791059432558]
我々は、DETRをインスタンスレベルのコントラスト損失を用いてMOTモデルに変換する方法を示す。
本手法では,検出能力を維持しながらオブジェクトの外観を学習し,オーバーヘッドを少なく抑える。
そのパフォーマンスは、BDD100Kデータセットにおいて、以前の最先端の+2.6 mMOTAを上回っている。
論文 参考訳(メタデータ) (2023-11-14T10:07:52Z) - Task Specific Attention is one more thing you need for object detection [0.0]
我々は、いくつかの注意モジュールと新しいタスク特定分割変換器(TSST)を組み合わせることで、COCOの最良の結果を生成するのに十分な方法を提案する。
本稿では,複数の注意モジュールと新しいタスク特定分割変換器(TSST)を組み合わせることで,COCOの最良の結果を生成するのに十分な方法を提案する。
論文 参考訳(メタデータ) (2022-02-18T07:09:33Z) - Recurrent Glimpse-based Decoder for Detection with Transformer [85.64521612986456]
本稿では,Recurrent Glimpse-based deoder (REGO)について紹介する。
特に、REGOは多段階のリカレント処理構造を用いて、DETRの注目が徐々に前景オブジェクトに焦点を合わせるのを助ける。
REGOは、異なるDETR検出器の性能を最大7%向上させる。
論文 参考訳(メタデータ) (2021-12-09T00:29:19Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - Rethinking Transformer-based Set Prediction for Object Detection [57.7208561353529]
実験の結果,提案手法は元のDETRよりもはるかに高速に収束するだけでなく,検出精度の点でDTRや他のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2020-11-21T21:59:42Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。