論文の概要: LDA-AQU: Adaptive Query-guided Upsampling via Local Deformable Attention
- arxiv url: http://arxiv.org/abs/2411.19585v1
- Date: Fri, 29 Nov 2024 09:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:21:46.943980
- Title: LDA-AQU: Adaptive Query-guided Upsampling via Local Deformable Attention
- Title(参考訳): LDA-AQU: 局所変形性注意による適応型クエリ誘導アップサンプリング
- Authors: Zewen Du, Zhenjiang Hu, Guiyu Zhao, Ying Jin, Hongbin Ma,
- Abstract要約: 機能アップサンプリングは、ディープ畳み込みニューラルネットワークを構築する上で不可欠な操作である。
本稿では,局所的な自己意識は自然に特徴指導能力を持ち,その計算パラダイムは機能アップサンプリングの本質と密接に一致していることを示す。
アップサンプラー点とその近傍点間の潜在的な意味的ギャップを考慮し、局所的な自己注意に基づくアップサンプラーに変形機構を導入する。
LDA-AQUは、従来の最先端のアップサンプラーを一貫して上回り、1.7 AP、1.5 AP、2.0 PQ、2.5 mIoUのパフォーマンス向上を達成した。
- 参考スコア(独自算出の注目度): 5.652171904017473
- License:
- Abstract: Feature upsampling is an essential operation in constructing deep convolutional neural networks. However, existing upsamplers either lack specific feature guidance or necessitate the utilization of high-resolution feature maps, resulting in a loss of performance and flexibility. In this paper, we find that the local self-attention naturally has the feature guidance capability, and its computational paradigm aligns closely with the essence of feature upsampling (\ie feature reassembly of neighboring points). Therefore, we introduce local self-attention into the upsampling task and demonstrate that the majority of existing upsamplers can be regarded as special cases of upsamplers based on local self-attention. Considering the potential semantic gap between upsampled points and their neighboring points, we further introduce the deformation mechanism into the upsampler based on local self-attention, thereby proposing LDA-AQU. As a novel dynamic kernel-based upsampler, LDA-AQU utilizes the feature of queries to guide the model in adaptively adjusting the position and aggregation weight of neighboring points, thereby meeting the upsampling requirements across various complex scenarios. In addition, LDA-AQU is lightweight and can be easily integrated into various model architectures. We evaluate the effectiveness of LDA-AQU across four dense prediction tasks: object detection, instance segmentation, panoptic segmentation, and semantic segmentation. LDA-AQU consistently outperforms previous state-of-the-art upsamplers, achieving performance enhancements of 1.7 AP, 1.5 AP, 2.0 PQ, and 2.5 mIoU compared to the baseline models in the aforementioned four tasks, respectively. Code is available at \url{https://github.com/duzw9311/LDA-AQU}.
- Abstract(参考訳): 機能アップサンプリングは、ディープ畳み込みニューラルネットワークを構築する上で不可欠な操作である。
しかし、既存のアップサンプラーには特定の機能ガイダンスが欠けているか、高解像度の機能マップを使う必要があるため、パフォーマンスと柔軟性が失われる。
本稿では,局所的な自己注意は自然に特徴誘導能力を持ち,その計算パラダイムは特徴アップサンプリングの本質(近傍の特徴再組み立て)と密接に一致していることを示す。
そこで,本稿では,局所的な自己意識をアップサンプリングタスクに導入し,既存のアップサンプラーの大多数を,ローカルなセルフアテンションに基づくアップサンプラーの特別な事例とみなすことができることを示した。
アップサンプリング点とその近傍点間の潜在的な意味的ギャップを考慮し、局所的な自己注意に基づくアップサンプリングに変形機構を導入し、LDA-AQUを提案する。
LDA-AQUは、新しい動的カーネルベースのアップサンプラーとして、クエリの特徴を利用して、近隣の点の位置と集約重量を適応的に調整し、様々な複雑なシナリオにまたがるアップサンプリング要求を満たす。
加えて、LDA-AQUは軽量であり、様々なモデルアーキテクチャに容易に統合できる。
オブジェクト検出,インスタンスセグメンテーション,パン光学セグメンテーション,セマンティックセグメンテーションの4つの密集予測タスクにおけるLDA-AQUの有効性を評価する。
LDA-AQUは、前述の4つのタスクのベースラインモデルと比較して、1.7 AP、1.5 AP、2.0 PQ、2.5 mIoUのパフォーマンス向上を実現している。
コードは \url{https://github.com/duzw9311/LDA-AQU} で公開されている。
関連論文リスト
- A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
一般的な類似性に基づく機能アップサンプリングパイプラインが提案されている。
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
我々は,モーザイクアーティファクトを緩和する上ではシンプルだが有効であるHR特徴に対して,きめ細かな近傍選択戦略を開発する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - Progressive Classifier and Feature Extractor Adaptation for Unsupervised Domain Adaptation on Point Clouds [36.596096617244655]
非教師なしドメイン適応(UDA)は、ポイントクラウド分析の分野において重要な課題である。
本稿では,3次元UDAのための分類器と特徴抽出器を深く結合した新しいフレームワークを提案する。
われわれのPCFEAはマクロレベルとマイクロレベルという2つの異なる視点から3D UDAを実施している。
論文 参考訳(メタデータ) (2023-11-27T07:33:15Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - AFD-Net: Adaptive Fully-Dual Network for Few-Shot Object Detection [8.39479809973967]
Few-shot Object Detection (FSOD) は、未確認の物体に迅速に適応できる検出器の学習を目的としている。
既存の方法では、共有コンポーネントを用いて分類と局所化のサブタスクを実行することで、この問題を解決している。
本稿では,2つのサブタスクの明示的な分解を考慮し,両者の情報を活用して特徴表現の強化を図ることを提案する。
論文 参考訳(メタデータ) (2020-11-30T10:21:32Z) - Learning Affinity-Aware Upsampling for Deep Image Matting [83.02806488958399]
アップサンプリングにおける学習親和性は、ディープ・ネットワークにおけるペアワイズ・インタラクションを効果的かつ効率的に利用するためのアプローチであることを示す。
特に、コンポジション1kマッチングデータセットの結果は、A2Uが強いベースラインに対してSAD測定値の14%の相対的な改善を達成していることを示している。
最先端のマッティングネットワークと比較すると、モデル複雑度は40%に過ぎず、8%高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-11-29T05:09:43Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z) - Self-Guided Adaptation: Progressive Representation Alignment for Domain
Adaptive Object Detection [86.69077525494106]
非教師なしドメイン適応(UDA)は、オブジェクト検出モデルのドメイン間ロバスト性を改善するために前例のない成功を収めた。
既存のUDA手法は、モデル学習中の瞬間的なデータ分布を無視しており、大きなドメインシフトによって特徴表現が劣化する可能性がある。
本稿では、特徴表現の整合とドメイン間のオブジェクト検出モデルの転送を目標とする自己ガイド適応モデルを提案する。
論文 参考訳(メタデータ) (2020-03-19T13:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。