論文の概要: Exploiting Image Translations via Ensemble Self-Supervised Learning for
Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2107.06235v1
- Date: Tue, 13 Jul 2021 16:43:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 15:58:19.341373
- Title: Exploiting Image Translations via Ensemble Self-Supervised Learning for
Unsupervised Domain Adaptation
- Title(参考訳): 教師なしドメイン適応のための自己組織化学習による画像翻訳
- Authors: Fabrizio J. Piva, Gijs Dubbelman
- Abstract要約: 本稿では,複数の画像翻訳,アンサンブル学習,自己教師型学習を組み合わせた非教師なしドメイン適応(UDA)戦略を,一貫したアプローチで導入する。
我々は、ラベル付き合成データとラベル付き実世界のデータに基づいてセマンティックセグメンテーションモデルを訓練するUDAの標準的なタスクの1つに焦点を当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce an unsupervised domain adaption (UDA) strategy that combines
multiple image translations, ensemble learning and self-supervised learning in
one coherent approach. We focus on one of the standard tasks of UDA in which a
semantic segmentation model is trained on labeled synthetic data together with
unlabeled real-world data, aiming to perform well on the latter. To exploit the
advantage of using multiple image translations, we propose an ensemble learning
approach, where three classifiers calculate their prediction by taking as input
features of different image translations, making each classifier learn
independently, with the purpose of combining their outputs by sparse
Multinomial Logistic Regression. This regression layer known as meta-learner
helps to reduce the bias during pseudo label generation when performing
self-supervised learning and improves the generalizability of the model by
taking into consideration the contribution of each classifier. We evaluate our
method on the standard UDA benchmarks, i.e. adapting GTA V and Synthia to
Cityscapes, and achieve state-of-the-art results in the mean intersection over
union metric. Extensive ablation experiments are reported to highlight the
advantageous properties of our proposed UDA strategy.
- Abstract(参考訳): 本稿では,複数の画像翻訳,アンサンブル学習,自己教師あり学習を組み合わせた,unsupervised domain adaption (uda)戦略を提案する。
我々は,ラベル付き合成データとラベル付き実世界のデータを用いてセグメンテーションモデルを訓練するUDAの標準的なタスクの1つに着目し,後者の性能向上を目指す。
そこで本研究では,3つの分類器が異なる画像翻訳の入力特徴として計算し,各分類器が独立して学習し,それらの出力を疎多項ロジスティック回帰によって組み合わせて予測するアンサンブル学習手法を提案する。
メタラーナーとして知られる回帰レイヤは、自己教師付き学習を行う際に擬似ラベル生成時のバイアスを低減し、各分類器の寄与を考慮してモデルの一般化性を向上させる。
標準 UDA ベンチマーク,すなわち,本手法の評価を行った。
GTA V と Synthia を都市景観に適用し、最先端の成果を達成すれば、ユニオン計量の平均交叉が得られる。
広範なアブレーション実験を行い,提案するuda戦略の有利性を強調した。
関連論文リスト
- Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Semi-Supervised Image Captioning by Adversarially Propagating Labeled
Data [95.0476489266988]
本稿では、画像キャプションモデルの一般化を改善するための、新しいデータ効率半教師付きフレームワークを提案する。
提案手法は,キャプタにペアデータから学習し,段階的に未ペアデータの関連付けを行うよう訓練する。
1)画像ベースと(2)高密度領域ベースキャプションデータセットの両方を総合的かつ包括的な実験結果とし,それに続いて,少ないペアリングデータセットの包括的分析を行った。
論文 参考訳(メタデータ) (2023-01-26T15:25:43Z) - Cooperative Self-Training for Multi-Target Adaptive Semantic
Segmentation [26.79776306494929]
複数のドメイン固有分類器間の協調を誘導するために擬似ラベルを用いた自己学習戦略を提案する。
我々は、自己学習の不可欠な部分を形成する画像ビューを生成する効率的な方法として、特徴スタイリングを採用している。
論文 参考訳(メタデータ) (2022-10-04T13:03:17Z) - Con$^{2}$DA: Simplifying Semi-supervised Domain Adaptation by Learning
Consistent and Contrastive Feature Representations [1.2891210250935146]
Con$2$DAは、半教師付き学習の最近の進歩を半教師付きドメイン適応問題に拡張するフレームワークである。
我々のフレームワークは、与えられた入力に対してデータ変換を行うことで、関連するサンプルのペアを生成する。
我々は、異なる損失関数を使用して、関連するデータペアのサンプルの特徴表現間の一貫性を強制します。
論文 参考訳(メタデータ) (2022-04-04T15:05:45Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Weakly supervised segmentation with cross-modality equivariant
constraints [7.757293476741071]
弱い教師付き学習は、セマンティックセグメンテーションにおける大きなラベル付きデータセットの必要性を軽減するための魅力的な代替手段として登場した。
本稿では,マルチモーダル画像シナリオにおける自己スーパービジョンを活用した新しい学習戦略を提案する。
私たちのアプローチは、同じ学習条件下で関連する最近の文学を上回ります。
論文 参考訳(メタデータ) (2021-04-06T13:14:20Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。