論文の概要: Progressive Target-Styled Feature Augmentation for Unsupervised Domain
Adaptation on Point Clouds
- arxiv url: http://arxiv.org/abs/2311.16474v1
- Date: Mon, 27 Nov 2023 07:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 20:27:24.928235
- Title: Progressive Target-Styled Feature Augmentation for Unsupervised Domain
Adaptation on Point Clouds
- Title(参考訳): 点雲上の教師なし領域適応のためのプログレッシブターゲット型特徴拡張
- Authors: Zicheng Wang, Zhen Zhao, Yiming Wu, Luping Zhou and Dong Xu
- Abstract要約: 非教師なしのドメイン適応は、ポイントクラウド分析の分野において重要な課題である。
プログレッシブターゲット型特徴増強(PTSFA)と呼ばれる新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 39.26197419215821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation is a critical challenge in the field of point
cloud analysis, as models trained on one set of data often struggle to perform
well in new scenarios due to domain shifts. Previous works tackle the problem
by using adversarial training or self-supervised learning for feature extractor
adaptation, but ensuring that features extracted from the target domain can be
distinguished by the source-supervised classifier remains challenging. In this
work, we propose a novel approach called progressive target-styled feature
augmentation (PTSFA). Unlike previous works that focus on feature extractor
adaptation, our PTSFA approach focuses on classifier adaptation. It aims to
empower the classifier to recognize target-styled source features and
progressively adapt to the target domain. To enhance the reliability of
predictions within the PTSFA framework and encourage discriminative feature
extraction, we further introduce a new intermediate domain approaching (IDA)
strategy. We validate our method on the benchmark datasets, where our method
achieves new state-of-the-art performance. Our code is available at
https://github.com/xiaoyao3302/PTSFA.
- Abstract(参考訳): 教師なしのドメイン適応は、ポイントクラウド分析の分野で重要な課題であり、あるデータセットでトレーニングされたモデルは、ドメインシフトによって新しいシナリオでうまく機能するのに苦労することが多い。
先行研究では,特徴抽出器適応のための敵対的訓練や自己教師付き学習を用いてこの問題に取り組むが,対象領域から抽出された特徴をソース教師付き分類器で区別することは依然として困難である。
本研究では,プログレッシブターゲット型特徴拡張(PTSFA)と呼ばれる新しい手法を提案する。
特徴抽出器適応に焦点を当てた従来の研究とは異なり、PTSFAアプローチは分類器適応に焦点を当てている。
それは、分類器にターゲットスタイルのソース機能を認識し、ターゲットドメインに徐々に適応させることを目的としている。
PTSFAフレームワーク内の予測の信頼性を高め、識別的特徴抽出を促進するため、新たな中間領域アプローチ(IDA)戦略を導入する。
本手法はベンチマークデータセット上で検証を行い,新たな最先端性能を実現する。
私たちのコードはhttps://github.com/xiaoyao3302/ptsfaで利用可能です。
関連論文リスト
- Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Self-training through Classifier Disagreement for Cross-Domain Opinion
Target Extraction [62.41511766918932]
オピニオンターゲット抽出(OTE)またはアスペクト抽出(AE)は意見マイニングの基本的な課題である。
最近の研究は、現実世界のシナリオでよく見られるクロスドメインのOTEに焦点を当てている。
そこで本稿では,ドメイン固有の教師と学生のネットワークから出力されるモデルが未学習のターゲットデータと一致しない対象サンプルを選択するためのSSLアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:31:17Z) - Labeling Where Adapting Fails: Cross-Domain Semantic Segmentation with
Point Supervision via Active Selection [81.703478548177]
セマンティックセグメンテーションに特化したトレーニングモデルは、大量のピクセル単位のアノテートデータを必要とする。
教師なしドメイン適応手法は、ラベル付きソースとラベルなしターゲットデータとの間の特徴分布の整合化を目的としている。
以前の研究は、対象データにスパース単一ピクセルアノテーションという形で、人間のインタラクションをこのプロセスに含めようと試みていた。
アクティブな選択による注釈付きポイントを用いた意味的セグメンテーションのための新しいドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-01T01:52:28Z) - Transformer-Based Source-Free Domain Adaptation [134.67078085569017]
本研究では,ソースフリードメイン適応(SFDA)の課題について検討する。
我々は、FDAの一般化モデルを学ぶためのTransformer(TransDA)という、汎用的で効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-28T23:06:26Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Target Consistency for Domain Adaptation: when Robustness meets
Transferability [8.189696720657247]
学習不変表現(Learning Invariant Representations)は、ソースとUnsupervised Domain Adaptationのターゲットドメインの調整に成功している。
ソースドメインに保持されているにもかかわらず、クラスタの仮定がターゲットドメインで違反していることを示す。
我々の新しいアプローチは、画像分類とセグメンテーションベンチマークの両方において、大幅な改善をもたらす。
論文 参考訳(メタデータ) (2020-06-25T09:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。