論文の概要: Adaptive Boosting for Domain Adaptation: Towards Robust Predictions in
Scene Segmentation
- arxiv url: http://arxiv.org/abs/2103.15685v1
- Date: Mon, 29 Mar 2021 15:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:49:43.211895
- Title: Adaptive Boosting for Domain Adaptation: Towards Robust Predictions in
Scene Segmentation
- Title(参考訳): ドメイン適応のための適応的ブースティング:シーンセグメンテーションにおけるロバスト予測に向けて
- Authors: Zhedong Zheng and Yi Yang
- Abstract要約: ドメイン適応とは、ソースドメインから学んだ共有知識を新しい環境、すなわちターゲットドメインに転送することである。
1つの一般的なプラクティスは、ラベル付きソースドメインデータとラベルなしターゲットドメインデータの両方でモデルをトレーニングすることです。
学習中に補足モデルを明確に学習する1つの効果的なブートストラップ法であるadaboost studentを提案する。
- 参考スコア(独自算出の注目度): 41.05407168312345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation is to transfer the shared knowledge learned from the source
domain to a new environment, i.e., target domain. One common practice is to
train the model on both labeled source-domain data and unlabeled target-domain
data. Yet the learned models are usually biased due to the strong supervision
of the source domain. Most researchers adopt the early-stopping strategy to
prevent over-fitting, but when to stop training remains a challenging problem
since the lack of the target-domain validation set. In this paper, we propose
one efficient bootstrapping method, called Adaboost Student, explicitly
learning complementary models during training and liberating users from
empirical early stopping. Adaboost Student combines the deep model learning
with the conventional training strategy, i.e., adaptive boosting, and enables
interactions between learned models and the data sampler. We adopt one adaptive
data sampler to progressively facilitate learning on hard samples and aggregate
``weak'' models to prevent over-fitting. Extensive experiments show that (1)
Without the need to worry about the stopping time, AdaBoost Student provides
one robust solution by efficient complementary model learning during training.
(2) AdaBoost Student is orthogonal to most domain adaptation methods, which can
be combined with existing approaches to further improve the state-of-the-art
performance. We have achieved competitive results on three widely-used scene
segmentation domain adaptation benchmarks.
- Abstract(参考訳): ドメイン適応とは、ソースドメインから学んだ共有知識を新しい環境、すなわちターゲットドメインに転送することである。
一般的には、ラベル付きソースドメインデータとラベルなしターゲットドメインデータの両方でモデルをトレーニングする。
しかし、学習モデルは通常、ソースドメインの強い監督のためにバイアスを受けます。
ほとんどの研究者は、過度な適合を防ぐために早期停止戦略を採用するが、目標ドメイン検証セットが欠如しているため、トレーニングの中止は難しい問題である。
本稿では,学習中の補完モデルを明確に学習し,ユーザを経験的早期停止から解放する,Adaboost Studentsと呼ばれる効率的なブートストラップ手法を提案する。
adaboostの学生は、ディープラーニングと従来のトレーニング戦略、すなわち適応的ブースティングを組み合わせることで、学習モデルとデータサンプル間のインタラクションを可能にする。
ハードサンプルの学習を段階的に促進し,<weak'モデルを集約して過度な適合を防止するために,適応型データサンプリング器を1つ導入する。
AdaBoost Studentsは,(1)停止時間の心配を伴わずに,学習中の補完的モデル学習を効率的に行うことで,一つの堅牢なソリューションを提供する。
2)adaboostの学生は,ほとんどのドメイン適応法と直交しており,既存の手法と組み合わせることで,最先端のパフォーマンスをさらに向上することができる。
3つの広く使われているシーンセグメンテーション領域適応ベンチマークにおいて、競合的な結果を得た。
関連論文リスト
- Source-Free Test-Time Adaptation For Online Surface-Defect Detection [29.69030283193086]
テスト時間適応型表面欠陥検出手法を提案する。
推論中にトレーニング済みのモデルを新しいドメインやクラスに適応させる。
実験では、最先端の技術よりも優れています。
論文 参考訳(メタデータ) (2024-08-18T14:24:05Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - DaMSTF: Domain Adversarial Learning Enhanced Meta Self-Training for
Domain Adaptation [20.697905456202754]
ドメイン適応のための新しい自己学習フレームワーク、すなわちドメイン逆学習強化自己学習フレームワーク(DaMSTF)を提案する。
DaMSTFはメタラーニングによって各擬似インスタンスの重要性を推定し、ラベルノイズを同時に低減し、ハードサンプルを保存する。
DaMSTFはBERTの性能を平均4%近く改善する。
論文 参考訳(メタデータ) (2023-08-05T00:14:49Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。