論文の概要: Balanced Learning for Domain Adaptive Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2512.06886v1
- Date: Sun, 07 Dec 2025 15:21:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.576198
- Title: Balanced Learning for Domain Adaptive Semantic Segmentation
- Title(参考訳): ドメイン適応セマンティックセマンティックセグメンテーションのためのバランス学習
- Authors: Wangkai Li, Rui Sun, Bohao Liao, Zhaoyang Li, Tianzhu Zhang,
- Abstract要約: 意味的セグメンテーションのための教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
UDAにおける自己学習技術の有効性にもかかわらず、各クラスは、固有のクラス不均衡とデータとドメイン間のラベル空間の分散シフトのために、バランスの取れた方法で学習するのに苦労している。
本稿では,分布シフトに関する事前知識を必要とせずに,クラスバイアスを直接評価・緩和するための新しいアプローチであるBallotd Learning for Domain Adaptation (BLDA)を提案する。
- 参考スコア(独自算出の注目度): 37.70100155953312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) for semantic segmentation aims to transfer knowledge from a labeled source domain to an unlabeled target domain. Despite the effectiveness of self-training techniques in UDA, they struggle to learn each class in a balanced manner due to inherent class imbalance and distribution shift in both data and label space between domains. To address this issue, we propose Balanced Learning for Domain Adaptation (BLDA), a novel approach to directly assess and alleviate class bias without requiring prior knowledge about the distribution shift. First, we identify over-predicted and under-predicted classes by analyzing the distribution of predicted logits. Subsequently, we introduce a post-hoc approach to align the logits distributions across different classes using shared anchor distributions. To further consider the network's need to generate unbiased pseudo-labels during self-training, we estimate logits distributions online and incorporate logits correction terms into the loss function. Moreover, we leverage the resulting cumulative density as domain-shared structural knowledge to connect the source and target domains. Extensive experiments on two standard UDA semantic segmentation benchmarks demonstrate that BLDA consistently improves performance, especially for under-predicted classes, when integrated into various existing methods. Code is available at https://github.com/Woof6/BLDA.
- Abstract(参考訳): 意味的セグメンテーションのための教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
UDAにおける自己学習技術の有効性にもかかわらず、各クラスは、固有のクラス不均衡とデータとドメイン間のラベル空間の分散シフトのために、バランスの取れた方法で学習するのに苦労している。
この問題に対処するために、分布シフトに関する事前知識を必要とせず、クラスバイアスを直接評価し緩和する新しいアプローチである、バランスド・ラーニング・フォー・ドメイン・アダプテーション(BLDA)を提案する。
まず,予測ロジットの分布を分析することによって,過大予測クラスと過小予測クラスを同定する。
その後、共有アンカー分布を用いて、異なるクラスにまたがるロジット分布を調整するためのポストホックアプローチを導入する。
ネットワークが自己学習中に不偏な擬似ラベルを生成する必要性をさらに考慮するため、ロジット分布をオンラインで推定し、ロジット補正項を損失関数に組み込む。
さらに、得られた累積密度をドメイン共有構造知識として利用して、ソースとターゲットドメインを接続する。
2つの標準 UDA セマンティックセグメンテーションベンチマークの大規模な実験は、BLDA が既存の様々なメソッドに統合された場合、特に予測不足なクラスに対して、一貫して性能を改善することを示した。
コードはhttps://github.com/Woof6/BLDA.comで入手できる。
関連論文リスト
- Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Unsupervised Model Adaptation for Continual Semantic Segmentation [15.820660013260584]
本研究では,ラベル付きソースドメインを用いて訓練されたセマンティックセグメンテーションモデルを,ラベル付きターゲットドメインで適切に一般化するアルゴリズムを開発した。
我々は,アルゴリズムが有効である条件を理論的に分析し,説明する。
ベンチマーク適応タスクの実験では, 共同UDA手法と比較して, 競争性能が向上することを示した。
論文 参考訳(メタデータ) (2020-09-26T04:55:50Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - Partially-Shared Variational Auto-encoders for Unsupervised Domain
Adaptation with Target Shift [11.873435088539459]
本稿では,教師なしドメイン適応(UDA)の目標シフトを考慮した新しいアプローチを提案する。
提案手法は部分共有変分オートエンコーダ (PS-VAE) であり, 特徴分布マッチングの代わりにペアワイズな特徴アライメントを用いる。
PS-VAEは、ラベル関連コンテンツを保存しながら、CycleGANベースのアーキテクチャで各サンプルの変換ドメインを相互変換する。
論文 参考訳(メタデータ) (2020-01-22T06:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。