論文の概要: Contrastive Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2204.10377v1
- Date: Thu, 21 Apr 2022 19:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 02:08:47.604144
- Title: Contrastive Test-Time Adaptation
- Title(参考訳): 対照的なテスト時間適応
- Authors: Dian Chen, Dequan Wang, Trevor Darrell, Sayna Ebrahimi
- Abstract要約: 本稿では,自己指導型コントラスト学習を活用して特徴学習を支援する新しい手法を提案する。
擬似ラベルをオンラインで作成し、ターゲットのフィーチャースペースに最も近い隣人の間でソフト投票によってそれらを洗練します。
我々の手法であるAdaContrastは、主要なベンチマーク上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 83.73506803142693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time adaptation is a special setting of unsupervised domain adaptation
where a trained model on the source domain has to adapt to the target domain
without accessing source data. We propose a novel way to leverage
self-supervised contrastive learning to facilitate target feature learning,
along with an online pseudo labeling scheme with refinement that significantly
denoises pseudo labels. The contrastive learning task is applied jointly with
pseudo labeling, contrasting positive and negative pairs constructed similarly
as MoCo but with source-initialized encoder, and excluding same-class negative
pairs indicated by pseudo labels. Meanwhile, we produce pseudo labels online
and refine them via soft voting among their nearest neighbors in the target
feature space, enabled by maintaining a memory queue. Our method, AdaContrast,
achieves state-of-the-art performance on major benchmarks while having several
desirable properties compared to existing works, including memory efficiency,
insensitivity to hyper-parameters, and better model calibration. Project page:
sites.google.com/view/adacontrast.
- Abstract(参考訳): テスト時適応は、ソースデータにアクセスすることなく、ソースドメインのトレーニング済みモデルがターゲットドメインに適応しなければならない、教師なしドメイン適応の特別な設定である。
本稿では,自己指導型コントラスト学習を活用して目標特徴学習を促進する手法と,擬似ラベルを著しく悪用する改良型オンライン擬似ラベリング手法を提案する。
コントラスト学習タスクは擬似ラベリングと併用し、MoCoと同様に構築された正と負のペアとソース初期化エンコーダと対比し、擬似ラベリングで示される同級負のペアを除外する。
一方,オンライン上で疑似ラベルを作成し,メモリキューの維持により,対象機能空間内の最寄り者間のソフト投票により精製する。
提案手法であるadacontrastは,メモリ効率,ハイパーパラメータに対する過敏性,モデルキャリブレーションの改善など,既存の手法と比較して望ましい性能を保ちつつ,主要なベンチマークで最先端のパフォーマンスを実現する。
プロジェクトページ: site.google.com/view/adacontrast
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Towards Adaptive Pseudo-label Learning for Semi-Supervised Temporal Action Localization [10.233225586034665]
既存の手法はしばしば厳密な条件に基づいて擬似ラベルをフィルタリングし、最適でない擬似ラベルのランク付けと選択につながる。
擬似ラベル選択を容易にするための適応擬似ラベル学習フレームワークを提案する。
本手法は,各種半教師付き環境下での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-10T14:00:19Z) - Efficient Test-Time Adaptation of Vision-Language Models [58.3646257833533]
事前学習された視覚言語モデルによるテスト時間適応は、テスト時間中に分散シフトに取り組むことに注目が集まっている。
我々は、視覚言語モデルによる効率的なテスト時間適応を可能にするトレーニングフリーな動的アダプタであるTDAを設計する。
論文 参考訳(メタデータ) (2024-03-27T06:37:51Z) - Unsupervised Domain Adaptation for Semantic Segmentation with Pseudo
Label Self-Refinement [9.69089112870202]
擬似ラベルのオンライン精錬のための補助的擬似ラベル精錬ネットワーク(PRN)を提案する。
3つの異なるドメインシフトを持つベンチマークデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2023-10-25T20:31:07Z) - Semi-Supervised Learning of Semantic Correspondence with Pseudo-Labels [26.542718087103665]
SemiMatchは意味論的に類似した画像間の密接な対応を確立するための半教師付きソリューションである。
筆者らのフレームワークは,ソースと弱増強ターゲット間のモデル予測自体を用いて擬似ラベルを生成し,擬似ラベルを用いてソースと強増強ターゲット間のモデルの再学習を行う。
実験では、SemiMatchは様々なベンチマーク、特にPF-Willowにおける最先端のパフォーマンスを大きなマージンで達成している。
論文 参考訳(メタデータ) (2022-03-30T03:52:50Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - Prototypical Pseudo Label Denoising and Target Structure Learning for
Domain Adaptive Semantic Segmentation [24.573242887937834]
ドメイン適応セグメンテーションにおける競争的アプローチは、ターゲットドメインの擬似ラベルでネットワークを訓練する。
さらに一歩進めて,単なるプロトタイプよりも豊富な情報を提供するプロトタイプからの機能距離を活用する。
学習済みの知識を自己教師付き事前学習モデルに蒸留することで,さらなる性能向上が期待できる。
論文 参考訳(メタデータ) (2021-01-26T18:12:54Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。