論文の概要: Continual Coarse-to-Fine Domain Adaptation in Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2201.06974v1
- Date: Tue, 18 Jan 2022 13:31:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 14:19:35.717157
- Title: Continual Coarse-to-Fine Domain Adaptation in Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションにおける連続的粗結合ドメイン適応
- Authors: Donald Shenaj, Francesco Barbato, Umberto Michieli, Pietro Zanuttigh
- Abstract要約: ディープニューラルネットワークは通常、特定のタスクとデータ分散のために、単一のショットでトレーニングされる。
実際の環境では、タスクとアプリケーションドメインの両方が変更される可能性がある。
本稿では,ドメインシフトが存在する場合のセマンティックセグメンテーションアーキテクチャの粗大な学習という新たな課題を紹介する。
- 参考スコア(独自算出の注目度): 22.366638308792734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are typically trained in a single shot for a specific
task and data distribution, but in real world settings both the task and the
domain of application can change. The problem becomes even more challenging in
dense predictive tasks, such as semantic segmentation, and furthermore most
approaches tackle the two problems separately. In this paper we introduce the
novel task of coarse-to-fine learning of semantic segmentation architectures in
presence of domain shift. We consider subsequent learning stages progressively
refining the task at the semantic level; i.e., the finer set of semantic labels
at each learning step is hierarchically derived from the coarser set of the
previous step. We propose a new approach (CCDA) to tackle this scenario. First,
we employ the maximum squares loss to align source and target domains and, at
the same time, to balance the gradients between well-classified and harder
samples. Second, we introduce a novel coarse-to-fine knowledge distillation
constraint to transfer network capabilities acquired on a coarser set of labels
to a set of finer labels. Finally, we design a coarse-to-fine weight
initialization rule to spread the importance from each coarse class to the
respective finer classes. To evaluate our approach, we design two benchmarks
where source knowledge is extracted from the GTA5 dataset and it is transferred
to either the Cityscapes or the IDD datasets, and we show how it outperforms
the main competitors.
- Abstract(参考訳): ディープニューラルネットワークは通常、特定のタスクとデータ分散のために単一のショットでトレーニングされるが、現実の設定では、タスクとアプリケーションのドメインの両方が変更される。
この問題は、セマンティックセグメンテーションのような密集した予測タスクにおいてさらに困難になり、さらに多くのアプローチが2つの問題に別々に取り組む。
本稿では,ドメインシフトの存在下で意味セグメンテーションアーキテクチャを粗雑に学習する新しいタスクを提案する。
各学習段階における意味ラベルの細かい集合は,前段階の粗い集合から階層的に導出される。
このシナリオに対処するための新しいアプローチ(CCDA)を提案する。
まず、ソースとターゲットドメインを整列させるために最大二乗損失を採用し、同時に、よく分類されたサンプルと難しいサンプルの勾配のバランスをとる。
第2に,ラベルの粗い集合から得られたネットワーク機能を,より微細なラベルの集合に転送するための,新しい粗大な知識蒸留制約を導入する。
最後に,各粗いクラスから細かなクラスへ重要度を分散させるために,粗いウェイト初期化ルールを設計する。
提案手法を評価するために,gta5データセットからソース知識を抽出し,cityscapes または idd データセットに転送するベンチマークを2つ設計した。
関連論文リスト
- ContextSeg: Sketch Semantic Segmentation by Querying the Context with Attention [7.783971241874388]
本稿では、この問題を2段階に分けて扱うための、シンプルかつ高効率なアプローチであるContextSegについて述べる。
第1段階では、ストロークの形状と位置情報をよりよく符号化するために、オートエンコーダネットワークにおける余分な密度距離場を予測することを提案する。
第2段階では、全ストロークを単一のエンティティとして扱い、デフォルトのアテンション機構を備えた自動回帰変換器を用いて、同じ意味部分内でストロークのグループをラベル付けする。
論文 参考訳(メタデータ) (2023-11-28T10:53:55Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Self-semantic contour adaptation for cross modality brain tumor
segmentation [13.260109561599904]
本稿では,前駆的なタスクへの適応を容易にするために,低レベルエッジ情報を活用することを提案する。
正確な輪郭は、意味適応を導くために空間情報を提供する。
われわれはBraTS2018データベース上で脳腫瘍のクロスモーダルセグメンテーションの枠組みについて検討した。
論文 参考訳(メタデータ) (2022-01-13T15:16:55Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Semi-supervised Domain Adaptation based on Dual-level Domain Mixing for
Semantic Segmentation [34.790169990156684]
私たちは、少数のラベル付きターゲットデータと大量のラベル付きソースデータが利用可能である半監視ドメイン適応(SSDA)のより実用的な設定に焦点を当てています。
領域レベルとサンプルレベルのドメインギャップを低減する2種類のデータミキシング手法を提案する。
総合的視点と部分的視点から2段階の混合データに基づいて,2つの相補的ドメイン混合教師を得ることができる。
論文 参考訳(メタデータ) (2021-03-08T12:33:17Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z) - GradMix: Multi-source Transfer across Domains and Tasks [33.98368732653684]
GradMixは、勾配に基づく学習規則で訓練されたモデルに適用できるモデルに依存しない手法である。
数値認識と行動認識の2つの課題についてMS-DTT実験を行った。
論文 参考訳(メタデータ) (2020-02-09T02:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。