論文の概要: TTTFlow: Unsupervised Test-Time Training with Normalizing Flow
- arxiv url: http://arxiv.org/abs/2210.11389v1
- Date: Thu, 20 Oct 2022 16:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:22:09.653435
- Title: TTTFlow: Unsupervised Test-Time Training with Normalizing Flow
- Title(参考訳): TTTFlow: 正規化フローによる教師なしテストタイムトレーニング
- Authors: David Osowiechi, Gustavo A. Vargas Hakim, Mehrdad Noori, Milad
Cheraghalikhani, Ismail Ben Ayed, Christian Desrosiers
- Abstract要約: 画像分類におけるディープニューラルネットワークの大きな問題は、テスト時のドメイン変更に対する脆弱性である。
近年,テストタイム・トレーニング (TTT) でこの問題に対処する手法が提案されている。
本稿では、正規化フローに基づく教師なしヘッドを用いたY字型アーキテクチャTTTFlowを提案し、潜在特徴の正規分布を学習し、テスト例におけるドメインシフトを検出する。
- 参考スコア(独自算出の注目度): 18.121961548745112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major problem of deep neural networks for image classification is their
vulnerability to domain changes at test-time. Recent methods have proposed to
address this problem with test-time training (TTT), where a two-branch model is
trained to learn a main classification task and also a self-supervised task
used to perform test-time adaptation. However, these techniques require
defining a proxy task specific to the target application. To tackle this
limitation, we propose TTTFlow: a Y-shaped architecture using an unsupervised
head based on Normalizing Flows to learn the normal distribution of latent
features and detect domain shifts in test examples. At inference, keeping the
unsupervised head fixed, we adapt the model to domain-shifted examples by
maximizing the log likelihood of the Normalizing Flow. Our results show that
our method can significantly improve the accuracy with respect to previous
works.
- Abstract(参考訳): 画像分類におけるディープニューラルネットワークの大きな問題は、テスト時のドメイン変更に対する脆弱性である。
最近の手法では、主分類タスクを学ぶために2つの分岐モデルと、テスト時間適応を行うのに使用される自己教師付きタスクを訓練するttt(test-time training)によってこの問題に対処することが提案されている。
しかし、これらのテクニックはターゲットアプリケーション特有のプロキシタスクを定義する必要がある。
正規化フローに基づく教師なしヘッドを用いたy字型アーキテクチャで,潜在特徴の正規分布を学習し,テスト例でドメインシフトを検出する。
推論において、教師なしの頭部を固定する際、正規化フローのログ確率を最大化することにより、ドメインシフトした例にモデルを適応させる。
以上の結果から,本手法は従来よりも精度が向上することが示された。
関連論文リスト
- NC-TTT: A Noise Contrastive Approach for Test-Time Training [19.0284321951354]
ノイズコントラストテストタイムトレーニング(NC-TTT)は,ノイズの特徴マップの識別に基づく非教師なしTTT技術である。
予測された特徴写像のノイズの多いビューを分類し、新しい領域に応じてモデルを適応させることで、分類性能を重要なマージンで回復させることができる。
論文 参考訳(メタデータ) (2024-04-12T10:54:11Z) - What, How, and When Should Object Detectors Update in Continually
Changing Test Domains? [34.13756022890991]
テストデータを推測しながらモデルをオンラインに適応させるテスト時適応アルゴリズムが提案されている。
連続的に変化するテスト領域におけるオブジェクト検出のための新しいオンライン適応手法を提案する。
提案手法は,広く使用されているベンチマークのベースラインを超え,最大4.9%,mAP7.9%の改善を実現している。
論文 参考訳(メタデータ) (2023-12-12T07:13:08Z) - Open Domain Generalization with a Single Network by Regularization
Exploiting Pre-trained Features [37.518025833882334]
Open Domain Generalization(ODG)は、分散シフトとカテゴリシフトを扱うため、困難なタスクである。
これまでの作業では複数のソース特化ネットワークを使用しており、コストが高い。
本稿では,単一ネットワークのみを用いてODGを処理できる手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T16:22:10Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Improved Test-Time Adaptation for Domain Generalization [48.239665441875374]
テストタイムトレーニング(TTT)は、学習したモデルにテストデータを適用する。
この作業は2つの主な要因に対処する: テストフェーズ中にアップデートする信頼性のあるパラメータを更新および識別するための適切な補助的TTTタスクを選択する。
トレーニングされたモデルに適応パラメータを追加し、テストフェーズでのみ適応パラメータを更新することを提案する。
論文 参考訳(メタデータ) (2023-04-10T10:12:38Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - MT3: Meta Test-Time Training for Self-Supervised Test-Time Adaption [69.76837484008033]
ディープラーニングの未解決の問題は、ニューラルネットワークがテスト時間中のドメインシフトに対処する能力である。
メタラーニング、自己監督、テストタイムトレーニングを組み合わせて、目に見えないテスト分布に適応する方法を学びます。
この手法はcifar-10による画像分類ベンチマークの最先端結果を大幅に改善する。
論文 参考訳(メタデータ) (2021-03-30T09:33:38Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。