論文の概要: Semantic Self-adaptation: Enhancing Generalization with a Single Sample
- arxiv url: http://arxiv.org/abs/2208.05788v2
- Date: Fri, 21 Jul 2023 11:50:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 16:47:10.955600
- Title: Semantic Self-adaptation: Enhancing Generalization with a Single Sample
- Title(参考訳): 意味的自己適応:単一サンプルによる一般化の強化
- Authors: Sherwin Bahmani, Oliver Hahn, Eduard Zamfir, Nikita Araslanov, Daniel
Cremers and Stefan Roth
- Abstract要約: セマンティックセグメンテーションのための自己適応型アプローチを提案する。
整合正則化を用いて畳み込み層のパラメータを入力画像に微調整する。
実験により, 自己適応は訓練時のモデル正規化の確立した実践を補完する可能性が示唆された。
- 参考スコア(独自算出の注目度): 53.869943977217574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The lack of out-of-domain generalization is a critical weakness of deep
networks for semantic segmentation. Previous studies relied on the assumption
of a static model, i. e., once the training process is complete, model
parameters remain fixed at test time. In this work, we challenge this premise
with a self-adaptive approach for semantic segmentation that adjusts the
inference process to each input sample. Self-adaptation operates on two levels.
First, it fine-tunes the parameters of convolutional layers to the input image
using consistency regularization. Second, in Batch Normalization layers,
self-adaptation interpolates between the training and the reference
distribution derived from a single test sample. Despite both techniques being
well known in the literature, their combination sets new state-of-the-art
accuracy on synthetic-to-real generalization benchmarks. Our empirical study
suggests that self-adaptation may complement the established practice of model
regularization at training time for improving deep network generalization to
out-of-domain data. Our code and pre-trained models are available at
https://github.com/visinf/self-adaptive.
- Abstract(参考訳): ドメイン外一般化の欠如は、セマンティックセグメンテーションのためのディープネットワークの重要な弱点である。
これまでの研究は静的モデルの仮定に頼っていた。
e.
トレーニングプロセスが完了すると、モデルパラメータはテスト時に固定されます。
本研究では,各入力サンプルに対する推論プロセスを調整する意味セグメンテーションに対する自己適応的アプローチによって,この前提に挑戦する。
自己適応は2つのレベルで動作する。
まず、一貫性の正規化を用いて畳み込み層のパラメータを入力画像に微調整する。
第二に、バッチ正規化層では、トレーニングと単一のテストサンプルに由来する参照分布の間に自己適応が補間される。
どちらの技法も文献でよく知られているが、それらの組み合わせは合成から実への一般化ベンチマークにおいて新しい最先端の精度を設定する。
本研究は,学習時間におけるモデル正規化の確立した実践を自己適応が補完し,ドメイン外データへのディープネットワーク一般化を改善する可能性を示唆する。
私たちのコードと事前訓練されたモデルはhttps://github.com/visinf/self-adaptive.comで利用可能です。
関連論文リスト
- Self-Supervised Learning for Covariance Estimation [3.04585143845864]
推論時に局所的に適用されるニューラルネットワークをグローバルに学習することを提案する。
アーキテクチャは、一般的な注目メカニズムに基づいている。
基礎モデルとして事前訓練し、レーダーやハイパースペクトル画像の適応目標検出など、様々な下流タスクに再利用することができる。
論文 参考訳(メタデータ) (2024-03-13T16:16:20Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Learning to Generalize across Domains on Single Test Samples [126.9447368941314]
単体テストサンプルでドメインをまたいで一般化することを学ぶ。
変分ベイズ推論問題として単検体への適応を定式化する。
我々のモデルは、ドメインの一般化のための複数のベンチマークにおいて、最先端のメソッドよりも少なくとも同等で、より優れたパフォーマンスを達成します。
論文 参考訳(メタデータ) (2022-02-16T13:21:04Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - Parameter Decoupling Strategy for Semi-supervised 3D Left Atrium
Segmentation [0.0]
本稿では,パラメータ分離戦略に基づく半教師付きセグメンテーションモデルを提案する。
提案手法は,Atrial Challengeデータセット上での最先端の半教師付き手法と競合する結果を得た。
論文 参考訳(メタデータ) (2021-09-20T14:51:42Z) - SelfReg: Self-supervised Contrastive Regularization for Domain
Generalization [7.512471799525974]
対照的学習,自己教師付きコントラスト正規化(SelfReg)に基づく領域一般化のための新しい正規化手法を提案する。
提案手法は正のデータペアのみを用いるため,負のペアサンプリングによって生じる様々な問題を解消する。
最近のベンチマークであるDomainBedでは、提案手法は従来の最先端技術に匹敵する性能を示している。
論文 参考訳(メタデータ) (2021-04-20T09:08:29Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。