論文の概要: On Fine-Tuned Deep Features for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2210.14083v1
- Date: Tue, 25 Oct 2022 15:07:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 15:15:50.332397
- Title: On Fine-Tuned Deep Features for Unsupervised Domain Adaptation
- Title(参考訳): 教師なし領域適応のための微調整深部特徴について
- Authors: Qian Wang, Toby P. Breckon
- Abstract要約: ドメイン適応性能を向上させるために,細調整された特徴と特徴変換に基づくUDA法を組み合わせる可能性について検討した。
具体的には、一般的なプログレッシブな擬似ラベリング手法を微調整フレームワークに統合し、微調整された特徴を抽出する。
ResNet-50/101 や DeiT-small/base を含む複数の深層モデルによる実験を行い、微調整された特徴の組み合わせを実証した。
- 参考スコア(独自算出の注目度): 23.18781318003242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior feature transformation based approaches to Unsupervised Domain
Adaptation (UDA) employ the deep features extracted by pre-trained deep models
without fine-tuning them on the specific source or target domain data for a
particular domain adaptation task. In contrast, end-to-end learning based
approaches optimise the pre-trained backbones and the customised adaptation
modules simultaneously to learn domain-invariant features for UDA. In this
work, we explore the potential of combining fine-tuned features and feature
transformation based UDA methods for improved domain adaptation performance.
Specifically, we integrate the prevalent progressive pseudo-labelling
techniques into the fine-tuning framework to extract fine-tuned features which
are subsequently used in a state-of-the-art feature transformation based domain
adaptation method SPL (Selective Pseudo-Labeling). Thorough experiments with
multiple deep models including ResNet-50/101 and DeiT-small/base are conducted
to demonstrate the combination of fine-tuned features and SPL can achieve
state-of-the-art performance on several benchmark datasets.
- Abstract(参考訳): 事前の機能変換に基づくUnsupervised Domain Adaptation (UDA) へのアプローチでは、特定のドメイン適応タスクの特定のソースやターゲットドメインデータを微調整することなく、事前訓練されたディープモデルによって抽出された深い特徴を用いる。
対照的に、エンドツーエンド学習に基づくアプローチは、事前訓練されたバックボーンとカスタマイズされた適応モジュールを同時に最適化し、UDAのドメイン不変の機能を学ぶ。
本稿では,細分化された機能と機能変換に基づくuda法を組み合わせたドメイン適応性能の向上の可能性について検討する。
具体的には、一般的なプログレッシブ擬似ラベリング手法をファインチューニングフレームワークに統合し、その後、最先端の特徴変換に基づくドメイン適応手法SPL(Selective Pseudo-Labeling)で使用される微調整特徴を抽出する。
ResNet-50/101 や DeiT-small/base を含む複数の深層モデルによる詳細な実験を行い、微調整された特徴の組み合わせを実証し、SPL はいくつかのベンチマークデータセットで最先端のパフォーマンスを達成できることを示した。
関連論文リスト
- Enhancing Domain Adaptation through Prompt Gradient Alignment [16.618313165111793]
我々は、ドメイン不変性と特定の特徴の両方を学ぶために、素早い学習に基づく一連の作品を開発する。
我々は、UDAを、各目的がドメイン損失で表される多重目的最適化問題とみなした。
提案手法は,異なるUDAベンチマークにおいて,他のプロンプトベースベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-13T17:40:15Z) - Progressive Classifier and Feature Extractor Adaptation for Unsupervised Domain Adaptation on Point Clouds [36.596096617244655]
非教師なしドメイン適応(UDA)は、ポイントクラウド分析の分野において重要な課題である。
本稿では,3次元UDAのための分類器と特徴抽出器を深く結合した新しいフレームワークを提案する。
われわれのPCFEAはマクロレベルとマイクロレベルという2つの異なる視点から3D UDAを実施している。
論文 参考訳(メタデータ) (2023-11-27T07:33:15Z) - Domain-Aware Fine-Tuning: Enhancing Neural Network Adaptability [4.671615537573023]
Domain-Aware Fine-Tuning (DAFT)は、バッチ正規化変換と線形探索と微調整の統合を組み合わせた新しいアプローチである。
提案手法は特徴歪みを著しく軽減し,分布内および分布外の両方のデータセット上でのモデル性能の向上を実現する。
論文 参考訳(メタデータ) (2023-08-15T12:08:43Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - TDACNN: Target-domain-free Domain Adaptation Convolutional Neural
Network for Drift Compensation in Gas Sensors [6.451060076703026]
本稿では,ターゲットドメインレスドメイン適応畳み込みニューラルネットワーク(TDACNN)に基づくディープラーニングを提案する。
主な概念は、CNNがサンプルのドメイン固有の特徴を抽出するだけでなく、ソースドメインとターゲットドメインの両方の基礎となるドメイン不変の特徴も抽出することである。
異なる設定下でドリフトする2つのデータセットの実験は、いくつかの最先端手法と比較してTDACNNの優位性を示している。
論文 参考訳(メタデータ) (2021-10-14T16:30:17Z) - T-SVDNet: Exploring High-Order Prototypical Correlations for
Multi-Source Domain Adaptation [41.356774580308986]
マルチソースドメイン適応の課題に対処するために,T-SVDNetという新しい手法を提案する。
複数のドメインとカテゴリの高次相関は、ドメインギャップを埋めるため、完全に検討されている。
ノイズ源データによる負の伝達を回避するため,新しい不確実性を考慮した重み付け手法を提案する。
論文 参考訳(メタデータ) (2021-07-30T06:33:05Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。