論文の概要: DA-DETR: Domain Adaptive Detection Transformer with Information Fusion
- arxiv url: http://arxiv.org/abs/2103.17084v2
- Date: Wed, 22 Mar 2023 05:15:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 08:41:24.484479
- Title: DA-DETR: Domain Adaptive Detection Transformer with Information Fusion
- Title(参考訳): DA-DETR:情報融合型ドメイン適応検出変換器
- Authors: Jingyi Zhang, Jiaxing Huang, Zhipeng Luo, Gongjie Zhang, Xiaoqin
Zhang, Shijian Lu
- Abstract要約: DA-DETRは、ラベル付きソースドメインからラベルなしターゲットドメインへの効果的な転送のための情報融合を導入するドメイン適応型オブジェクト検出変換器である。
本稿では,CNN機能とトランスフォーマー機能を融合した新しいCNN-Transformer Blender(CTBlender)を提案する。
CTBlenderはTransformer機能を使用して、高レベルの意味情報と低レベルの空間情報が融合した複数のスケールでCNN機能を変調し、正確な物体識別と位置決めを行う。
- 参考スコア(独自算出の注目度): 53.25930448542148
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The recent detection transformer (DETR) simplifies the object detection
pipeline by removing hand-crafted designs and hyperparameters as employed in
conventional two-stage object detectors. However, how to leverage the simple
yet effective DETR architecture in domain adaptive object detection is largely
neglected. Inspired by the unique DETR attention mechanisms, we design DA-DETR,
a domain adaptive object detection transformer that introduces information
fusion for effective transfer from a labeled source domain to an unlabeled
target domain. DA-DETR introduces a novel CNN-Transformer Blender (CTBlender)
that fuses the CNN features and Transformer features ingeniously for effective
feature alignment and knowledge transfer across domains. Specifically,
CTBlender employs the Transformer features to modulate the CNN features across
multiple scales where the high-level semantic information and the low-level
spatial information are fused for accurate object identification and
localization. Extensive experiments show that DA-DETR achieves superior
detection performance consistently across multiple widely adopted domain
adaptation benchmarks.
- Abstract(参考訳): 最近の検出変換器(DETR)は、従来の2段階の物体検出器で用いられる手作りの設計やハイパーパラメータを除去することで、物体検出パイプラインを単純化する。
しかし、ドメイン適応型オブジェクト検出において、単純だが効果的なDETRアーキテクチャを利用する方法はほとんど無視されている。
DA-DETRは,ラベル付きソースドメインからラベル付きターゲットドメインへの効果的な転送のための情報融合を実現するドメイン適応型オブジェクト検出変換器である。
DA-DETRはCNN機能とトランスフォーマー機能を融合させる新しいCNN-Transformer Blender (CTBlender)を導入した。
具体的には、CTBlenderはTransformer機能を使用して、高レベルのセマンティック情報と低レベルの空間情報が融合された複数のスケールでCNN機能を変調し、正確なオブジェクト識別とローカライゼーションを行う。
大規模な実験により、DA-DETRは複数の広く採用されているドメイン適応ベンチマークにおいて、常に優れた検出性能を達成できることが示された。
関連論文リスト
- DATR: Unsupervised Domain Adaptive Detection Transformer with Dataset-Level Adaptation and Prototypical Alignment [7.768332621617199]
我々は、オブジェクト検出の教師なし領域適応のために、ドメイン適応検出TRansformer(DATR)と呼ばれる強力なDETRベースの検出器を導入する。
提案するDATRは,教師モデルによって生成された擬似ラベルを用いて,平均教師に基づく自己学習フレームワークを組み込んで,ドメインバイアスをさらに緩和する。
複数のドメイン適応シナリオにおいて,提案したDATRの性能と一般化性を示す実験を行った。
論文 参考訳(メタデータ) (2024-05-20T03:48:45Z) - Object Detection with Transformers: A Review [11.255962936937744]
本報告では, 従来のDETRモデルにおいて提案された21の進歩について概説する。
我々は、様々な検出変換器の比較分析を行い、その性能とネットワークアーキテクチャを評価した。
この研究は、既存の課題に対処し、オブジェクト検出領域におけるトランスフォーマーの適用を探求する研究者の間で、さらなる関心を喚起することを期待している。
論文 参考訳(メタデータ) (2023-06-07T16:13:38Z) - Hierarchical Point Attention for Indoor 3D Object Detection [111.04397308495618]
本研究は、点ベース変圧器検出器の汎用階層設計として、2つの新しい注意操作を提案する。
まず、よりきめ細かい特徴学習を可能にするために、シングルスケールの入力機能からマルチスケールトークンを構築するマルチスケール注意(MS-A)を提案する。
第2に,適応型アテンション領域を持つサイズ適応型ローカルアテンション(Local-A)を提案する。
論文 参考訳(メタデータ) (2023-01-06T18:52:12Z) - Transformers for Object Detection in Large Point Clouds [9.287964414592826]
トランスLPC(TransLPC)は,変圧器アーキテクチャに基づく大点雲の新しい検出モデルである。
本稿では,メモリフレンドリーな変圧器デコーダクエリ数を維持しながら,検出精度を向上させる新しいクエリ改善手法を提案する。
この単純な手法は検出精度に大きな影響を与え、実際のライダーデータ上での挑戦的なnuScenesデータセットで評価される。
論文 参考訳(メタデータ) (2022-09-30T06:35:43Z) - An Extendable, Efficient and Effective Transformer-based Object Detector [95.06044204961009]
我々は、視覚・検出変換器(ViDT)を統合し、効果的で効率的な物体検出装置を構築する。
ViDTは、最近のSwin Transformerをスタンドアロンのオブジェクト検出器に拡張するために、再構成されたアテンションモジュールを導入した。
オブジェクト検出とインスタンスセグメンテーションのための共同タスク学習をサポートするために、ViDT+に拡張する。
論文 参考訳(メタデータ) (2022-04-17T09:27:45Z) - Miti-DETR: Object Detection based on Transformers with Mitigatory
Self-Attention Convergence [17.854940064699985]
本稿では,緩和的自己認識機構を備えたトランスフォーマーアーキテクチャを提案する。
Miti-DETRは、各注意層の入力をそのレイヤの出力に予約し、「非注意」情報が注意伝播に関与するようにします。
Miti-DETRは、既存のDETRモデルに対する平均検出精度と収束速度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-12-26T03:23:59Z) - ViDT: An Efficient and Effective Fully Transformer-based Object Detector [97.71746903042968]
検出変換器は、オブジェクト検出のための最初のエンドツーエンド学習システムである。
視覚変換器は、画像分類のための最初の完全変換器ベースのアーキテクチャである。
本稿では、視覚・検出変換器(ViDT)を統合し、効果的で効率的な物体検出装置を構築する。
論文 参考訳(メタデータ) (2021-10-08T06:32:05Z) - Exploring Sequence Feature Alignment for Domain Adaptive Detection
Transformers [141.70707071815653]
本稿では,検出変圧器の適応に特化して設計された新しいシーケンス特徴アライメント(SFA)法を提案する。
SFAはドメインクエリベースの機能アライメント(DQFA)モジュールとトークンワイド機能アライメント(TDA)モジュールで構成される。
3つの挑戦的なベンチマーク実験により、SFAは最先端のドメイン適応オブジェクト検出方法より優れていることが示された。
論文 参考訳(メタデータ) (2021-07-27T07:17:12Z) - Oriented Object Detection with Transformer [51.634913687632604]
我々は,エンドツーエンドネットワークに基づくTRansformer(bf O2DETR$)によるオブジェクト指向オブジェクト検出を実装した。
注意機構を奥行き分離可能な畳み込みに置き換えることで,トランスフォーマーの簡易かつ高効率なエンコーダを設計する。
私たちの$rm O2DETR$は、オブジェクト指向オブジェクト検出の分野における別の新しいベンチマークになり、より高速なR-CNNとRetinaNetに対して最大3.85mAPの改善が達成されます。
論文 参考訳(メタデータ) (2021-06-06T14:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。