論文の概要: Semantic Self-adaptation: Enhancing Generalization with a Single Sample
- arxiv url: http://arxiv.org/abs/2208.05788v1
- Date: Wed, 10 Aug 2022 12:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:26:23.470068
- Title: Semantic Self-adaptation: Enhancing Generalization with a Single Sample
- Title(参考訳): 意味的自己適応:単一サンプルによる一般化の強化
- Authors: Sherwin Bahmani, Oliver Hahn, Eduard Zamfir, Nikita Araslanov, Daniel
Cremers and Stefan Roth
- Abstract要約: 本稿では,各サンプルに対する推論プロセスを調整するセマンティックセグメンテーションの自己適応的手法を提案する。
自己適応推論は強いベースラインを著しく上回り、マルチドメインベンチマークで新しい最先端の精度を設定できる。
- 参考スコア(独自算出の注目度): 53.869943977217574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite years of research, out-of-domain generalization remains a critical
weakness of deep networks for semantic segmentation. Previous studies relied on
the assumption of a static model, i.e. once the training process is complete,
model parameters remain fixed at test time. In this work, we challenge this
premise with a self-adaptive approach for semantic segmentation that adjusts
the inference process to each input sample. Self-adaptation operates on two
levels. First, it employs a self-supervised loss that customizes the parameters
of convolutional layers in the network to the input image. Second, in Batch
Normalization layers, self-adaptation approximates the mean and the variance of
the entire test data, which is assumed unavailable. It achieves this by
interpolating between the training and the reference distribution derived from
a single test sample. To empirically analyze our self-adaptive inference
strategy, we develop and follow a rigorous evaluation protocol that addresses
serious limitations of previous work. Our extensive analysis leads to a
surprising conclusion: Using a standard training procedure, self-adaptation
significantly outperforms strong baselines and sets new state-of-the-art
accuracy on multi-domain benchmarks. Our study suggests that self-adaptive
inference may complement the established practice of model regularization at
training time for improving deep network generalization to out-of-domain data.
- Abstract(参考訳): 長年の研究にもかかわらず、ドメイン外一般化はセマンティックセグメンテーションのためのディープネットワークの重要な弱点である。
以前の研究では、静的モデルの仮定、すなわちトレーニングプロセスが完了すると、モデルパラメータはテスト時に固定される。
本研究では,各入力サンプルに対する推論プロセスを調整する意味セグメンテーションに対する自己適応的アプローチによって,この前提に挑戦する。
自己適応は2つのレベルで動作する。
まず、ネットワーク内の畳み込み層のパラメータを入力画像にカスタマイズする、自己教師付き損失を使用する。
第二に、バッチ正規化層では、自己適応は、使用不可能と仮定されたテストデータ全体の平均と分散に近似する。
単一のテストサンプルから得られた基準分布とトレーニングを補間することでこれを実現できる。
自己適応型推論戦略を実証的に分析するために,従来の作業の重大な制約に対処する厳密な評価プロトコルを開発し,それに従う。
標準的なトレーニング手順を用いることで、自己適応は強いベースラインを著しく上回り、マルチドメインベンチマークで新しい最先端の精度を新たに設定します。
本研究は,学習時間におけるモデル正規化の確立した実践を自己適応的推論が補完し,ドメイン外データへのディープネットワーク一般化を改善することを示唆する。
関連論文リスト
- Self-Supervised Learning for Covariance Estimation [3.04585143845864]
推論時に局所的に適用されるニューラルネットワークをグローバルに学習することを提案する。
アーキテクチャは、一般的な注目メカニズムに基づいている。
基礎モデルとして事前訓練し、レーダーやハイパースペクトル画像の適応目標検出など、様々な下流タスクに再利用することができる。
論文 参考訳(メタデータ) (2024-03-13T16:16:20Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Learning to Generalize across Domains on Single Test Samples [126.9447368941314]
単体テストサンプルでドメインをまたいで一般化することを学ぶ。
変分ベイズ推論問題として単検体への適応を定式化する。
我々のモデルは、ドメインの一般化のための複数のベンチマークにおいて、最先端のメソッドよりも少なくとも同等で、より優れたパフォーマンスを達成します。
論文 参考訳(メタデータ) (2022-02-16T13:21:04Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - Parameter Decoupling Strategy for Semi-supervised 3D Left Atrium
Segmentation [0.0]
本稿では,パラメータ分離戦略に基づく半教師付きセグメンテーションモデルを提案する。
提案手法は,Atrial Challengeデータセット上での最先端の半教師付き手法と競合する結果を得た。
論文 参考訳(メタデータ) (2021-09-20T14:51:42Z) - SelfReg: Self-supervised Contrastive Regularization for Domain
Generalization [7.512471799525974]
対照的学習,自己教師付きコントラスト正規化(SelfReg)に基づく領域一般化のための新しい正規化手法を提案する。
提案手法は正のデータペアのみを用いるため,負のペアサンプリングによって生じる様々な問題を解消する。
最近のベンチマークであるDomainBedでは、提案手法は従来の最先端技術に匹敵する性能を示している。
論文 参考訳(メタデータ) (2021-04-20T09:08:29Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。