論文の概要: Instance-Aware Test-Time Segmentation for Continual Domain Shifts
- arxiv url: http://arxiv.org/abs/2512.08569v1
- Date: Tue, 09 Dec 2025 13:06:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.967207
- Title: Instance-Aware Test-Time Segmentation for Continual Domain Shifts
- Title(参考訳): 連続的なドメインシフトのためのインスタンス対応テスト時間セグメンテーション
- Authors: Seunghwan Lee, Inyoung Jung, Hojoon Lee, Eunil Park, Sungeun Hong,
- Abstract要約: 連続テスト時間適応(CTTA)は、トレーニング済みのモデルが継続的に進化するドメインに適応できるようにする。
本稿では,各画像内の信頼分布を反映するために,擬似ラベルを適応的に調整する手法を提案する。
このきめ細かいクラスとインスタンス対応の適応は、より信頼性の高い監視を生み出し、エラーの蓄積を軽減します。
- 参考スコア(独自算出の注目度): 19.919913865727995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Test-Time Adaptation (CTTA) enables pre-trained models to adapt to continuously evolving domains. Existing methods have improved robustness but typically rely on fixed or batch-level thresholds, which cannot account for varying difficulty across classes and instances. This limitation is especially problematic in semantic segmentation, where each image requires dense, multi-class predictions. We propose an approach that adaptively adjusts pseudo labels to reflect the confidence distribution within each image and dynamically balances learning toward classes most affected by domain shifts. This fine-grained, class- and instance-aware adaptation produces more reliable supervision and mitigates error accumulation throughout continual adaptation. Extensive experiments across eight CTTA and TTA scenarios, including synthetic-to-real and long-term shifts, show that our method consistently outperforms state-of-the-art techniques, setting a new standard for semantic segmentation under evolving conditions.
- Abstract(参考訳): 連続テスト時間適応(CTTA)は、トレーニング済みのモデルが継続的に進化するドメインに適応できるようにする。
既存のメソッドはロバスト性を改善しているが、通常は固定レベルまたはバッチレベルのしきい値に依存しており、クラスやインスタンス間で異なる難しさを説明できない。
この制限はセマンティックセグメンテーションにおいて特に問題となる。
本稿では,各画像内の信頼分布を反映する擬似ラベルを適応的に調整し,ドメインシフトに最も影響されたクラスに対して動的に学習のバランスをとる手法を提案する。
このきめ細かいクラスとインスタンス対応の適応は、より信頼性の高い監視を生み出し、連続的な適応を通してエラーの蓄積を軽減します。
合成-実-実-実-実-長期のシフトを含む8つのCTTAおよびTTAシナリオにわたる広範囲な実験により、我々の手法は、進化する条件下でのセマンティックセグメンテーションの新しい標準を定めながら、常に最先端技術より優れていることが示された。
関連論文リスト
- Class-Invariant Test-Time Augmentation for Domain Generalization [16.001258672237267]
ドメインの一般化は、モデルが見えないドメインに一般化するのに役立ちます。
従来のアプローチのほとんどは、マルチドメインのトレーニングや、計算集約的なテスト時間適応に依存していた。
テスト時間の軽量化という,補完的な戦略を提案する。
論文 参考訳(メタデータ) (2025-09-17T20:42:23Z) - Orthogonal Projection Subspace to Aggregate Online Prior-knowledge for Continual Test-time Adaptation [67.80294336559574]
連続テスト時間適応(CTTA)は、新しいシナリオに継続的に適応するために、ソース事前訓練されたモデルを必要とするタスクである。
我々は、OoPkと呼ばれるオンライン事前知識を集約する新しいパイプラインOrthogonal Projection Subspaceを提案する。
論文 参考訳(メタデータ) (2025-06-23T18:17:39Z) - ReservoirTTA: Prolonged Test-time Adaptation for Evolving and Recurring Domains [25.075869018443925]
ReservoirTTAは、長期間のテスト時間適応のために設計された新しいプラグインフレームワークである。
中心となるReservoirTTAはドメイン特化モデルの貯水池を維持している。
理論的解析により,パラメータの分散を束縛し,モデル崩壊を防ぐ重要な要素が明らかになった。
論文 参考訳(メタデータ) (2025-05-20T15:39:20Z) - Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Test-Time Training for Semantic Segmentation with Output Contrastive
Loss [12.535720010867538]
ディープラーニングベースのセグメンテーションモデルは、公開ベンチマークで印象的なパフォーマンスを達成したが、目に見えない環境にうまく一般化することは、依然として大きな課題である。
本稿では、適応過程を安定させるために、頑健で一般化された表現を学習する能力で知られるコントラストロス(OCL)を紹介する。
本手法は,テスト領域データに対するドメイン適応法を用いて事前学習したモデルに適用した場合においても優れ,そのレジリエンスと適応性を示す。
論文 参考訳(メタデータ) (2023-11-14T03:13:47Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - Semantic Self-adaptation: Enhancing Generalization with a Single Sample [45.111358665370524]
セマンティックセグメンテーションのための自己適応型アプローチを提案する。
整合正則化を用いて畳み込み層のパラメータを入力画像に微調整する。
実験により, 自己適応は訓練時のモデル正規化の確立した実践を補完する可能性が示唆された。
論文 参考訳(メタデータ) (2022-08-10T12:29:01Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。