論文の概要: DAPoinTr: Domain Adaptive Point Transformer for Point Cloud Completion
- arxiv url: http://arxiv.org/abs/2412.19062v1
- Date: Thu, 26 Dec 2024 05:16:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:28:20.506443
- Title: DAPoinTr: Domain Adaptive Point Transformer for Point Cloud Completion
- Title(参考訳): DAPoinTr: ポイントクラウドコンプリートのためのドメイン適応ポイント変換器
- Authors: Yinghui Li, Qianyu Zhou, Jingyu Gong, Ye Zhu, Richard Dazeley, Xinkui Zhao, Xuequan Lu,
- Abstract要約: 本稿では,ポイントクラウド補完のためのDAPoinTr(Domain Adaptive Point Transformer)フレームワークを提案する。
DAPoinTrは、DQFA(Domain Query-based Feature Alignment)、PTFA(Point Token-wise Feature alignment)、VPC(Votted Prediction Consistency)の3つの主要なコンポーネントで構成されている。
- 参考スコア(独自算出の注目度): 18.964211071984856
- License:
- Abstract: Point Transformers (PoinTr) have shown great potential in point cloud completion recently. Nevertheless, effective domain adaptation that improves transferability toward target domains remains unexplored. In this paper, we delve into this topic and empirically discover that direct feature alignment on point Transformer's CNN backbone only brings limited improvements since it cannot guarantee sequence-wise domain-invariant features in the Transformer. To this end, we propose a pioneering Domain Adaptive Point Transformer (DAPoinTr) framework for point cloud completion. DAPoinTr consists of three key components: Domain Query-based Feature Alignment (DQFA), Point Token-wise Feature alignment (PTFA), and Voted Prediction Consistency (VPC). In particular, DQFA is presented to narrow the global domain gaps from the sequence via the presented domain proxy and domain query at the Transformer encoder and decoder, respectively. PTFA is proposed to close the local domain shifts by aligning the tokens, \emph{i.e.,} point proxy and dynamic query, at the Transformer encoder and decoder, respectively. VPC is designed to consider different Transformer decoders as multiple of experts (MoE) for ensembled prediction voting and pseudo-label generation. Extensive experiments with visualization on several domain adaptation benchmarks demonstrate the effectiveness and superiority of our DAPoinTr compared with state-of-the-art methods. Code will be publicly available at: https://github.com/Yinghui-Li-New/DAPoinTr
- Abstract(参考訳): ポイントトランスフォーマー(PoinTr)は最近、ポイントクラウドの完成に大きな可能性を示しています。
それでも、標的領域への移動性を改善する効果的な領域適応は未解明のままである。
本稿では、この話題を掘り下げ、TransformerのCNNバックボーンの直接的な特徴アライメントは、Transformerのシーケンスワイドなドメイン不変性を保証できないため、限定的な改善しか得られないことを実証的に発見する。
この目的のために我々は,ポイントクラウド補完のための先駆的なDomain Adaptive Point Transformer (DAPoinTr) フレームワークを提案する。
DAPoinTrは、DQFA(Domain Query-based Feature Alignment)、PTFA(Point Token-wise Feature alignment)、VPC(Votted Prediction Consistency)の3つの主要なコンポーネントで構成されている。
特に、DQFAは、それぞれTransformerエンコーダとデコーダで提示されたドメインプロキシとドメインクエリを介してシーケンスからグローバルドメインギャップを狭めるために提示される。
PTFAは、トークンである \emph{i.e.} のポイントプロキシと動的クエリをTransformerエンコーダとdecoderで整列することで、局所的なドメインシフトを閉じるように提案されている。
VPCは、異なるトランスフォーマーデコーダを、アンサンブルされた予測投票と擬似ラベル生成のための複数の専門家(MoE)とみなすように設計されている。
いくつかのドメイン適応ベンチマークを視覚化した大規模な実験は、最先端の手法と比較して、DAPoinTrの有効性と優位性を示している。
コードは、https://github.com/Yinghui-Li-New/DAPoinTrで公開される。
関連論文リスト
- TransAdapter: Vision Transformer for Feature-Centric Unsupervised Domain Adaptation [0.3277163122167433]
Unsupervised Domain Adaptation (UDA)は、ソースドメインのラベル付きデータを使用して、ラベルなしのターゲットドメインのタスクを解決することを目的としている。
従来のCNNベースの手法は、複雑なドメイン関係を完全に捉えるのに苦労している。
3つの鍵モジュールを持つSwin Transformerを利用する新しいUDA手法を提案する。
論文 参考訳(メタデータ) (2024-12-05T11:11:39Z) - Domain-Conditioned Transformer for Fully Test-time Adaptation [18.51468880167399]
完全なテスト時間適応は、推論段階での入力サンプルのシーケンシャル分析に基づいて、ネットワークモデルをオンラインで適応することを目的としている。
変換器ネットワークモデルを新しい領域に適用すると、対象領域の画像サンプルの自己アテンションプロファイルは、ソース領域のものとは大きく異なる。
本稿では, 変圧器における自己保持モジュールの新しい構造を提案する。具体的には, ドメイン条件ベクトルと呼ばれる3つのドメイン条件ベクトルを, 自己保持モジュールのクエリ, キー, バリューコンポーネントに組み込む。
論文 参考訳(メタデータ) (2024-10-14T12:36:27Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - Exploring Consistency in Cross-Domain Transformer for Domain Adaptive
Semantic Segmentation [51.10389829070684]
ドメインギャップは、自己注意の相違を引き起こす可能性がある。
このギャップのため、変圧器は、ターゲット領域の精度を低下させる刺激領域または画素に付随する。
ドメイン横断の注意層を持つアテンションマップに適応する。
論文 参考訳(メタデータ) (2022-11-27T02:40:33Z) - UniDAformer: Unified Domain Adaptive Panoptic Segmentation Transformer
via Hierarchical Mask Calibration [49.16591283724376]
単一ネットワーク内でのドメイン適応型インスタンス分割とセマンティックセマンティックセマンティックセマンティクスを同時に実現可能な,シンプルで統一されたドメイン適応型パン光学セマンティクスセマンティクス変換器UniDAformerを設計する。
UniDAformerは階層型マスク(Hierarchical Mask, HMC)を導入し、オンザフライでのオンラインセルフトレーニングを通じて、領域、スーパーピクセル、注釈付きピクセルのレベルで不正確な予測を修正した。
1) 統合されたドメイン適応型パン光学適応を可能にする; 2) 誤った予測を緩和し、ドメイン適応型パン光学セグメンテーションを効果的に改善する; 3) より単純なトレーニングと推論パイプラインでエンドツーエンドのトレーニングを可能にする。
論文 参考訳(メタデータ) (2022-06-30T07:32:23Z) - Cross-Domain Object Detection with Mean-Teacher Transformer [43.486392965014105]
平均教師知識伝達(MTKT)に基づくエンドツーエンドのクロスドメイン検出変換器を提案する。
本稿では,ドメインクエリベースの特徴アライメント (DQFA) やバイレベルグラフベースのプロトタイプアライメント (BGPA) ,トークンワイド画像特徴アライメント (TIFA) など,トランスフォーマーのアーキテクチャに基づく3つのレベルの特徴アライメント戦略を設計する。
特にSim10kからCityscapesのシナリオは52.6mAPから57.9mAPに大幅に改善されている。
論文 参考訳(メタデータ) (2022-05-03T17:11:55Z) - Amplitude Spectrum Transformation for Open Compound Domain Adaptive
Semantic Segmentation [62.68759523116924]
オープン化合物ドメイン適応(OCDA)は、実用的な適応セットとして現れている。
我々は、新しい特徴空間振幅スペクトル変換(AST)を提案する。
論文 参考訳(メタデータ) (2022-02-09T05:40:34Z) - CDTrans: Cross-domain Transformer for Unsupervised Domain Adaptation [44.06904757181245]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインから異なるラベル付きターゲットドメインに学習した知識を転送することを目的としている。
カテゴリレベルに基づくUDAの根本的な問題は、ターゲットドメインのサンプル用の擬似ラベルの生成である。
我々は,対象サンプルの擬似ラベルを生成するために,双方向中心認識ラベルアルゴリズムを設計する。
擬似ラベルとともに、ソース/ターゲット特徴学習とソース/ターゲット領域アライメントに自己アテンションとクロスアテンションを適用するために、ウェイトシェアリング・トリプルブランチ・トランスフォーマー・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T17:59:07Z) - Vision Transformer with Progressive Sampling [73.60630716500154]
本稿では,識別領域を特定するための反復的・漸進的なサンプリング手法を提案する。
ImageNetでスクラッチからトレーニングされた場合、PS-ViTはトップ1の精度でバニラViTよりも3.8%高いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-08-03T18:04:31Z) - Exploring Sequence Feature Alignment for Domain Adaptive Detection
Transformers [141.70707071815653]
本稿では,検出変圧器の適応に特化して設計された新しいシーケンス特徴アライメント(SFA)法を提案する。
SFAはドメインクエリベースの機能アライメント(DQFA)モジュールとトークンワイド機能アライメント(TDA)モジュールで構成される。
3つの挑戦的なベンチマーク実験により、SFAは最先端のドメイン適応オブジェクト検出方法より優れていることが示された。
論文 参考訳(メタデータ) (2021-07-27T07:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。