論文の概要: Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training
- arxiv url: http://arxiv.org/abs/2307.03449v1
- Date: Fri, 7 Jul 2023 08:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 12:58:43.896591
- Title: Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training
- Title(参考訳): 協調一貫性学習によるユニバーサル半教師付きモデル適応
- Authors: Zizheng Yan, Yushuang Wu, Yipeng Qin, Xiaoguang Han, Shuguang Cui,
Guanbin Li
- Abstract要約: 我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
- 参考スコア(独自算出の注目度): 85.90600060675632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a realistic and challenging domain adaptation
problem called Universal Semi-supervised Model Adaptation (USMA), which i)
requires only a pre-trained source model, ii) allows the source and target
domain to have different label sets, i.e., they share a common label set and
hold their own private label set, and iii) requires only a few labeled samples
in each class of the target domain. To address USMA, we propose a collaborative
consistency training framework that regularizes the prediction consistency
between two models, i.e., a pre-trained source model and its variant
pre-trained with target data only, and combines their complementary strengths
to learn a more powerful model. The rationale of our framework stems from the
observation that the source model performs better on common categories than the
target-only model, while on target-private categories, the target-only model
performs better. We also propose a two-perspective, i.e., sample-wise and
class-wise, consistency regularization to improve the training. Experimental
results demonstrate the effectiveness of our method on several benchmark
datasets.
- Abstract(参考訳): 本稿では,universal semi-supervised model adaptation (usma) という,現実的で挑戦的な領域適応問題を提案する。
i) 事前訓練されたソースモデルのみを必要とする。
二 ソース及びターゲットドメインが異なるラベルセットを持つこと、すなわち、共通のラベルセットを共有して、独自のプライベートラベルセットを保持することができること。
iii) ターゲットドメインの各クラスにラベル付きサンプルをわずかに必要とします。
USMAに対処するため、我々は2つのモデル間の予測整合性、すなわち、事前学習されたソースモデルと、ターゲットデータのみで事前学習された派生モデルとの予測整合性を規則化し、それらの相補的な強みを組み合わせてより強力なモデルを学ぶための協調的整合性トレーニングフレームワークを提案する。
このフレームワークの理論的根拠は、ソースモデルがターゲットのみのモデルよりも共通のカテゴリでより良い性能を発揮するのに対し、ターゲットのみのモデルでは、ターゲットのみのモデルの方が優れた性能を発揮することに由来する。
また,トレーニングを改善するために,サンプル単位とクラス単位の2つのパースペクティブな一貫性規則化を提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
関連論文リスト
- Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
課題群規則化(Task Groupings Regularization)は、矛盾するタスクをグループ化し整合させることにより、モデルの不均一性から恩恵を受ける新しいアプローチである。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Adversarial Augmentation Training Makes Action Recognition Models More
Robust to Realistic Video Distribution Shifts [13.752169303624147]
アクション認識モデルは、トレーニングデータとテストデータの間の自然な分散シフトに直面したとき、堅牢性を欠くことが多い。
そこで本研究では,そのような分布格差に対するモデルレジリエンスを評価するための2つの新しい評価手法を提案する。
提案手法は,3つの動作認識モデルにまたがるベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-21T05:50:39Z) - Building a Winning Team: Selecting Source Model Ensembles using a
Submodular Transferability Estimation Approach [20.86345962679122]
公開されている事前訓練されたモデルの目標タスクへの転送可能性の推定は、伝達学習タスクにとって重要な場所となっている。
本稿では, モデルアンサンブルの下流タスクへの転送可能性を評価するために, 最適なtranSportベースのsuBmOdular tRaNsferability Metrics(OSBORN)を提案する。
論文 参考訳(メタデータ) (2023-09-05T17:57:31Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Learning to Generalize across Domains on Single Test Samples [126.9447368941314]
単体テストサンプルでドメインをまたいで一般化することを学ぶ。
変分ベイズ推論問題として単検体への適応を定式化する。
我々のモデルは、ドメインの一般化のための複数のベンチマークにおいて、最先端のメソッドよりも少なくとも同等で、より優れたパフォーマンスを達成します。
論文 参考訳(メタデータ) (2022-02-16T13:21:04Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Adaptive Consistency Regularization for Semi-Supervised Transfer
Learning [31.66745229673066]
我々は,半教師付き学習と移動学習を共同で検討し,より実践的で競争的なパラダイムへと導いた。
事前学習した重みとラベルなしの目標サンプルの両方の価値をよりよく活用するために、適応整合正則化を導入する。
提案手法は,Pseudo Label,Mean Teacher,MixMatchといった,最先端の半教師付き学習技術より優れた適応整合性正規化を実現する。
論文 参考訳(メタデータ) (2021-03-03T05:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。