論文の概要: Beyond Entropy: Style Transfer Guided Single Image Continual Test-Time
Adaptation
- arxiv url: http://arxiv.org/abs/2311.18270v1
- Date: Thu, 30 Nov 2023 06:14:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 17:54:35.858623
- Title: Beyond Entropy: Style Transfer Guided Single Image Continual Test-Time
Adaptation
- Title(参考訳): エントロピーを超えて:スタイル転送ガイドによる連続的なテスト時間適応
- Authors: Younggeol Cho, Youngrae Kim, Dongman Lee
- Abstract要約: BESTTAは,スタイル転送によって導かれる新しい単一画像連続テスト時間適応法である。
我々は,BESTTAが連続的に変化するターゲット環境に効果的に適応できることを示し,単一の画像のみを活用する。
注目すべきは、BeIN層で最小メモリを消費するパラメータが2つしかないにもかかわらず、BESTTAはパフォーマンス面で既存の最先端メソッドよりも優れていることだ。
- 参考スコア(独自算出の注目度): 1.6497679785422956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual test-time adaptation (cTTA) methods are designed to facilitate the
continual adaptation of models to dynamically changing real-world environments
where computational resources are limited. Due to this inherent limitation,
existing approaches fail to simultaneously achieve accuracy and efficiency. In
detail, when using a single image, the instability caused by batch
normalization layers and entropy loss significantly destabilizes many existing
methods in real-world cTTA scenarios. To overcome these challenges, we present
BESTTA, a novel single image continual test-time adaptation method guided by
style transfer, which enables stable and efficient adaptation to the target
environment by transferring the style of the input image to the source style.
To implement the proposed method, we devise BeIN, a simple yet powerful
normalization method, along with the style-guided losses. We demonstrate that
BESTTA effectively adapts to the continually changing target environment,
leveraging only a single image on both semantic segmentation and image
classification tasks. Remarkably, despite training only two parameters in a
BeIN layer consuming the least memory, BESTTA outperforms existing
state-of-the-art methods in terms of performance.
- Abstract(参考訳): 連続的なテスト時間適応(cTTA)法は,計算資源が限られている実世界の環境を動的に変化させるために,モデルの連続的な適応を容易にするように設計されている。
この固有の制限のため、既存のアプローチは精度と効率を同時に達成できない。
詳細は、単一画像を使用する場合、バッチ正規化層とエントロピー損失に起因する不安定さは、現実世界のcTTAシナリオにおいて、多くの既存のメソッドを著しく不安定化する。
これらの課題を克服するために,入力画像のスタイルをソーススタイルに転送することにより,目標環境への安定かつ効率的な適応を実現する,スタイル転送による単一画像連続テスト時間適応手法 bestta を提案する。
提案手法を実装するために,単純かつ強力な正規化手法であるbeinと,スタイルガイドによる損失を考案する。
我々は,BESTTAが連続的に変化するターゲット環境に効果的に適用できることを示し,セマンティックセグメンテーションと画像分類タスクの両方において,単一の画像のみを活用することを示した。
驚くべきことに、最少メモリを消費するbein層で2つのパラメータしかトレーニングしていないにもかかわらず、besttaはパフォーマンスの点で既存の最先端メソッドよりも優れている。
関連論文リスト
- Stable Flow: Vital Layers for Training-Free Image Editing [74.52248787189302]
拡散モデルはコンテンツ合成と編集の分野に革命をもたらした。
最近のモデルでは、従来のUNetアーキテクチャをDiffusion Transformer (DiT)に置き換えている。
画像形成に欠かせないDiT内の「硝子層」を自動同定する手法を提案する。
次に、実画像編集を可能にするために、フローモデルのための改良された画像反転手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T18:59:51Z) - PostEdit: Posterior Sampling for Efficient Zero-Shot Image Editing [63.38854614997581]
拡散サンプリングプロセスを制御するために後続のスキームを組み込んだPostEditを導入する。
提案したPostEditは、未編集領域を正確に保存しながら、最先端の編集性能を実現する。
インバージョンもトレーニングも不要で、約1.5秒と18GBのGPUメモリを必要とするため、高品質な結果が得られる。
論文 参考訳(メタデータ) (2024-10-07T09:04:50Z) - OSSA: Unsupervised One-Shot Style Adaptation [41.71187047855695]
オブジェクト検出のための新しい教師なし領域適応手法であるOne-Shot Style Adaptation (OSSA)を導入する。
OSSAは、単一のターゲット画像から派生したスタイル統計を摂動することで、多様なターゲットスタイルを生成する。
我々は,OSSAがワンショット領域適応法において,新たな最先端技術を確立していることを示す。
論文 参考訳(メタデータ) (2024-10-01T17:43:57Z) - Test-Time Training for Semantic Segmentation with Output Contrastive
Loss [12.535720010867538]
ディープラーニングベースのセグメンテーションモデルは、公開ベンチマークで印象的なパフォーマンスを達成したが、目に見えない環境にうまく一般化することは、依然として大きな課題である。
本稿では、適応過程を安定させるために、頑健で一般化された表現を学習する能力で知られるコントラストロス(OCL)を紹介する。
本手法は,テスト領域データに対するドメイン適応法を用いて事前学習したモデルに適用した場合においても優れ,そのレジリエンスと適応性を示す。
論文 参考訳(メタデータ) (2023-11-14T03:13:47Z) - Effective Restoration of Source Knowledge in Continual Test Time
Adaptation [44.17577480511772]
本稿では、動的環境におけるドメインシフトを識別できる教師なし領域変更検出手法を提案する。
情報源から知識を復元することにより、モデルパラメータの段階的劣化に起因する負の結果を効果的に補正する。
我々は,最先端の適応手法と比較して,提案手法の優れた性能を示すために,ベンチマークデータセットの広範な実験を行った。
論文 参考訳(メタデータ) (2023-11-08T19:21:48Z) - AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation [1.4530711901349282]
本稿では,自律運転のためのデータセット,すなわちCLAD-CとShiFTを用いたテスト時間適応手法の検証を提案する。
現在のテスト時間適応手法は、ドメインシフトの様々な程度を効果的に扱うのに苦労している。
モデル安定性を高めるために、小さなメモリバッファを組み込むことで、確立された自己学習フレームワークを強化する。
論文 参考訳(メタデータ) (2023-09-18T19:34:23Z) - REALM: Robust Entropy Adaptive Loss Minimization for Improved
Single-Sample Test-Time Adaptation [5.749155230209001]
フルテスト時間適応(F-TTA)は、列車とテストデータの分散シフトによる性能損失を軽減することができる。
本稿では,F-TTAの雑音に対する堅牢性向上のための一般的な枠組みについて述べる。
論文 参考訳(メタデータ) (2023-09-07T18:44:58Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z) - Condition-Invariant Semantic Segmentation [77.10045325743644]
我々は現在最先端のドメイン適応アーキテクチャ上で条件不変セマンティック(CISS)を実装している。
本手法は,通常の都市景観$to$ACDCベンチマークにおいて,2番目に高い性能を実現する。
CISSはBDD100K-nightやACDC-nightのようなトレーニング中に見えない領域によく一般化している。
論文 参考訳(メタデータ) (2023-05-27T03:05:07Z) - CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer [58.020470877242865]
我々は,芸術的,写真的,映像的スタイルのトランスファーを共同で行うことができる汎用的なスタイルトランスファー手法を考案した。
我々は,グローバル不整合が局所的不整合に支配されているという軽度かつ合理的な仮定を定め,局所的パッチに適用した汎用的コントラストコヒーレンス保存損失(CCPL)を考案する。
CCPLは、スタイル化を低下させることなく、スタイル転送中のコンテンツソースのコヒーレンスを保存することができる。
論文 参考訳(メタデータ) (2022-07-11T12:09:41Z) - Towards Full-to-Empty Room Generation with Structure-Aware Feature
Encoding and Soft Semantic Region-Adaptive Normalization [67.64622529651677]
本稿では,ソフトセマンティックな領域適応正規化モジュール (softSEAN) ブロックを提案する。
我々のアプローチは、トレーニングの複雑さと非微分可能性の問題を緩和することの利点の他に、比較した手法を量的にも質的にも上回っている。
我々のSoftSEANブロックは、既存の識別および生成モデルのためのドロップインモジュールとして使用することができる。
論文 参考訳(メタデータ) (2021-12-10T09:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。