論文の概要: Test-Time Training for Semantic Segmentation with Output Contrastive
Loss
- arxiv url: http://arxiv.org/abs/2311.07877v1
- Date: Tue, 14 Nov 2023 03:13:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 15:44:13.005082
- Title: Test-Time Training for Semantic Segmentation with Output Contrastive
Loss
- Title(参考訳): 出力コントラスト損失を伴うセマンティックセグメンテーションの試験時間トレーニング
- Authors: Yunlong Zhang and Yuxuan Sun and Sunyi Zheng and Zhongyi Shui and
Chenglu Zhu and Lin Yang
- Abstract要約: ディープラーニングベースのセグメンテーションモデルは、公開ベンチマークで印象的なパフォーマンスを達成したが、目に見えない環境にうまく一般化することは、依然として大きな課題である。
本稿では、適応過程を安定させるために、頑健で一般化された表現を学習する能力で知られるコントラストロス(OCL)を紹介する。
本手法は,テスト領域データに対するドメイン適応法を用いて事前学習したモデルに適用した場合においても優れ,そのレジリエンスと適応性を示す。
- 参考スコア(独自算出の注目度): 12.535720010867538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep learning-based segmentation models have achieved impressive
performance on public benchmarks, generalizing well to unseen environments
remains a major challenge. To improve the model's generalization ability to the
new domain during evaluation, the test-time training (TTT) is a challenging
paradigm that adapts the source-pretrained model in an online fashion. Early
efforts on TTT mainly focus on the image classification task. Directly
extending these methods to semantic segmentation easily experiences unstable
adaption due to segmentation's inherent characteristics, such as extreme class
imbalance and complex decision spaces. To stabilize the adaptation process, we
introduce contrastive loss (CL), known for its capability to learn robust and
generalized representations. Nevertheless, the traditional CL operates in the
representation space and cannot directly enhance predictions. In this paper, we
resolve this limitation by adapting the CL to the output space, employing a
high temperature, and simplifying the formulation, resulting in a
straightforward yet effective loss function called Output Contrastive Loss
(OCL). Our comprehensive experiments validate the efficacy of our approach
across diverse evaluation scenarios. Notably, our method excels even when
applied to models initially pre-trained using domain adaptation methods on test
domain data, showcasing its resilience and adaptability.\footnote{Code and more
information could be found at~ \url{https://github.com/dazhangyu123/OCL}}
- Abstract(参考訳): ディープラーニングベースのセグメンテーションモデルは、公開ベンチマークで印象的なパフォーマンスを達成したが、未認識環境への一般化は依然として大きな課題である。
評価中の新しいドメインへのモデルの一般化能力を改善するため、テストタイムトレーニング(TTT)は、オンライン方式でソース予測モデルに適応する難しいパラダイムである。
TTTの初期の取り組みは主に画像分類タスクに焦点を当てていた。
これらのメソッドをセマンティクスセグメンテーションに直接拡張することは、極度のクラス不均衡や複雑な決定空間といったセグメンテーション固有の特性によって、容易に不安定な適応を経験できる。
適応過程を安定させるために,頑健で一般化された表現を学習する能力で知られるコントラッシブ・ロス(CL)を導入する。
それにもかかわらず、伝統的なclは表現空間で動作し、直接予測を拡張できない。
本稿では、CLを出力空間に適応させ、高温を利用して定式化を単純化することにより、この制限を解消し、出力コントラスト損失(OCL)と呼ばれる単純で効果的な損失関数を導出する。
総合実験により,様々な評価シナリオにおけるアプローチの有効性を検証した。
特に、テストドメインデータにドメイン適応法を用いて事前学習したモデルに適用しても優れた手法であり、そのレジリエンスと適応性を示している。
\footnote{Code and more information can found at~ \url{https://github.com/dazhangyu123/OCL}}
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation [16.85284386728494]
本稿では,自律運転のためのデータセット,すなわちCLAD-CとShiFTを用いたテスト時間適応手法の検証を提案する。
現在のテスト時間適応手法は、ドメインシフトの様々な程度を効果的に扱うのに苦労している。
提案手法はAR-TTAと呼ばれ、合成およびより現実的なベンチマークにおいて既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-18T19:34:23Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - TAAL: Test-time Augmentation for Active Learning in Medical Image
Segmentation [7.856339385917824]
本稿では,セグメンテーションのための半教師付きアクティブラーニング手法であるTAAL(Test-time Augmentation for Active Learning)を提案する。
以上の結果から,TAALは既存のベースライン法よりも,完全教師付きと半教師付きの両方で優れていることが示された。
論文 参考訳(メタデータ) (2023-01-16T22:19:41Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Test-Time Adaptation with Shape Moments for Image Segmentation [16.794050614196916]
セグメント化のためのテスト時間単オブジェクト適応について検討する。
本稿では,この課題に対処するための形状誘導エントロピー最小化手法を提案する。
我々は, 様々な形状を事前に組み込んで, 可算解への適応を導出する可能性を示す。
論文 参考訳(メタデータ) (2022-05-16T20:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。