論文の概要: DA-DETR: Domain Adaptive Detection Transformer by Hybrid Attention
- arxiv url: http://arxiv.org/abs/2103.17084v1
- Date: Wed, 31 Mar 2021 13:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 22:30:29.384501
- Title: DA-DETR: Domain Adaptive Detection Transformer by Hybrid Attention
- Title(参考訳): DA-DETR:ハイブリッドアテンションによるドメイン適応検出変換器
- Authors: Jingyi Zhang, Jiaxing Huang, Zhipeng Luo, Gongjie Zhang, Shijian Lu
- Abstract要約: DA-DETRは、シンプルで効果的なドメイン適応オブジェクト検出ネットワークです。
ドメイン間アライメントを単一識別器で実行する。
従来のドメイン適応パイプラインを大幅に単純化する。
- 参考スコア(独自算出の注目度): 44.44527875322821
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The prevalent approach in domain adaptive object detection adopts a two-stage
architecture (Faster R-CNN) that involves a number of hyper-parameters and
hand-crafted designs such as anchors, region pooling, non-maximum suppression,
etc. Such architecture makes it very complicated while adopting certain
existing domain adaptation methods with different ways of feature alignment. In
this work, we adopt a one-stage detector and design DA-DETR, a simple yet
effective domain adaptive object detection network that performs inter-domain
alignment with a single discriminator. DA-DETR introduces a hybrid attention
module that explicitly pinpoints the hard-aligned features for simple yet
effective alignment across domains. It greatly simplifies traditional domain
adaptation pipelines by eliminating sophisticated routines that involve
multiple adversarial learning frameworks with different types of features.
Despite its simplicity, extensive experiments show that DA-DETR demonstrates
superior accuracy as compared with highly-optimized state-of-the-art
approaches.
- Abstract(参考訳): ドメイン適応オブジェクト検出における一般的なアプローチは、2段階アーキテクチャ(より高速なr-cnn)を採用しており、多くのハイパーパラメータとアンカー、領域プーリング、非最大抑制などの手作り設計を含んでいる。
このようなアーキテクチャは、機能アライメントの異なる既存のドメイン適応メソッドを採用しながら、非常に複雑にします。
本研究では,単一識別器とドメイン間アライメントを行うシンプルなドメイン適応型オブジェクト検出ネットワークであるDA-DETRを,一段検出器と設計する。
DA-DETRは、ドメイン間の単純かつ効果的なアライメントのために、ハードアライメント機能を明確にピンポイントするハイブリッドアテンションモジュールを導入している。
異なるタイプの機能を持つ複数の敵学習フレームワークを含む高度なルーチンを排除することで、従来のドメイン適応パイプラインを大幅に単純化します。
その単純さにもかかわらず、広範な実験により、DA-DETRは高度に最適化された最先端のアプローチに比べて精度が優れていることが示されている。
関連論文リスト
- DATR: Unsupervised Domain Adaptive Detection Transformer with Dataset-Level Adaptation and Prototypical Alignment [7.768332621617199]
我々は、オブジェクト検出の教師なし領域適応のために、ドメイン適応検出TRansformer(DATR)と呼ばれる強力なDETRベースの検出器を導入する。
提案するDATRは,教師モデルによって生成された擬似ラベルを用いて,平均教師に基づく自己学習フレームワークを組み込んで,ドメインバイアスをさらに緩和する。
複数のドメイン適応シナリオにおいて,提案したDATRの性能と一般化性を示す実験を行った。
論文 参考訳(メタデータ) (2024-05-20T03:48:45Z) - Object Detection with Transformers: A Review [11.255962936937744]
本報告では, 従来のDETRモデルにおいて提案された21の進歩について概説する。
我々は、様々な検出変換器の比較分析を行い、その性能とネットワークアーキテクチャを評価した。
この研究は、既存の課題に対処し、オブジェクト検出領域におけるトランスフォーマーの適用を探求する研究者の間で、さらなる関心を喚起することを期待している。
論文 参考訳(メタデータ) (2023-06-07T16:13:38Z) - Hierarchical Point Attention for Indoor 3D Object Detection [111.04397308495618]
本研究は、点ベース変圧器検出器の汎用階層設計として、2つの新しい注意操作を提案する。
まず、よりきめ細かい特徴学習を可能にするために、シングルスケールの入力機能からマルチスケールトークンを構築するマルチスケール注意(MS-A)を提案する。
第2に,適応型アテンション領域を持つサイズ適応型ローカルアテンション(Local-A)を提案する。
論文 参考訳(メタデータ) (2023-01-06T18:52:12Z) - Transformers for Object Detection in Large Point Clouds [9.287964414592826]
トランスLPC(TransLPC)は,変圧器アーキテクチャに基づく大点雲の新しい検出モデルである。
本稿では,メモリフレンドリーな変圧器デコーダクエリ数を維持しながら,検出精度を向上させる新しいクエリ改善手法を提案する。
この単純な手法は検出精度に大きな影響を与え、実際のライダーデータ上での挑戦的なnuScenesデータセットで評価される。
論文 参考訳(メタデータ) (2022-09-30T06:35:43Z) - An Extendable, Efficient and Effective Transformer-based Object Detector [95.06044204961009]
我々は、視覚・検出変換器(ViDT)を統合し、効果的で効率的な物体検出装置を構築する。
ViDTは、最近のSwin Transformerをスタンドアロンのオブジェクト検出器に拡張するために、再構成されたアテンションモジュールを導入した。
オブジェクト検出とインスタンスセグメンテーションのための共同タスク学習をサポートするために、ViDT+に拡張する。
論文 参考訳(メタデータ) (2022-04-17T09:27:45Z) - Miti-DETR: Object Detection based on Transformers with Mitigatory
Self-Attention Convergence [17.854940064699985]
本稿では,緩和的自己認識機構を備えたトランスフォーマーアーキテクチャを提案する。
Miti-DETRは、各注意層の入力をそのレイヤの出力に予約し、「非注意」情報が注意伝播に関与するようにします。
Miti-DETRは、既存のDETRモデルに対する平均検出精度と収束速度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-12-26T03:23:59Z) - ViDT: An Efficient and Effective Fully Transformer-based Object Detector [97.71746903042968]
検出変換器は、オブジェクト検出のための最初のエンドツーエンド学習システムである。
視覚変換器は、画像分類のための最初の完全変換器ベースのアーキテクチャである。
本稿では、視覚・検出変換器(ViDT)を統合し、効果的で効率的な物体検出装置を構築する。
論文 参考訳(メタデータ) (2021-10-08T06:32:05Z) - Exploring Sequence Feature Alignment for Domain Adaptive Detection
Transformers [141.70707071815653]
本稿では,検出変圧器の適応に特化して設計された新しいシーケンス特徴アライメント(SFA)法を提案する。
SFAはドメインクエリベースの機能アライメント(DQFA)モジュールとトークンワイド機能アライメント(TDA)モジュールで構成される。
3つの挑戦的なベンチマーク実験により、SFAは最先端のドメイン適応オブジェクト検出方法より優れていることが示された。
論文 参考訳(メタデータ) (2021-07-27T07:17:12Z) - Oriented Object Detection with Transformer [51.634913687632604]
我々は,エンドツーエンドネットワークに基づくTRansformer(bf O2DETR$)によるオブジェクト指向オブジェクト検出を実装した。
注意機構を奥行き分離可能な畳み込みに置き換えることで,トランスフォーマーの簡易かつ高効率なエンコーダを設計する。
私たちの$rm O2DETR$は、オブジェクト指向オブジェクト検出の分野における別の新しいベンチマークになり、より高速なR-CNNとRetinaNetに対して最大3.85mAPの改善が達成されます。
論文 参考訳(メタデータ) (2021-06-06T14:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。