論文の概要: Energy-Based Test Sample Adaptation for Domain Generalization
- arxiv url: http://arxiv.org/abs/2302.11215v1
- Date: Wed, 22 Feb 2023 08:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:48:41.184421
- Title: Energy-Based Test Sample Adaptation for Domain Generalization
- Title(参考訳): 領域一般化のためのエネルギーベーステストサンプル適応
- Authors: Zehao Xiao, Xiantong Zhen, Shengcai Liao, Cees G. M. Snoek
- Abstract要約: そこで本研究では,ドメインの試験時間におけるエネルギーに基づくサンプル適応を提案する。
対象試料をソース分布に適応させるため,エネルギー最小化により反復的に試料を更新する。
画像とマイクロブログスレッドの分類のための6つのベンチマーク実験により,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 81.04943285281072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose energy-based sample adaptation at test time for
domain generalization. Where previous works adapt their models to target
domains, we adapt the unseen target samples to source-trained models. To this
end, we design a discriminative energy-based model, which is trained on source
domains to jointly model the conditional distribution for classification and
data distribution for sample adaptation. The model is optimized to
simultaneously learn a classifier and an energy function. To adapt target
samples to source distributions, we iteratively update the samples by energy
minimization with stochastic gradient Langevin dynamics. Moreover, to preserve
the categorical information in the sample during adaptation, we introduce a
categorical latent variable into the energy-based model. The latent variable is
learned from the original sample before adaptation by variational inference and
fixed as a condition to guide the sample update. Experiments on six benchmarks
for classification of images and microblog threads demonstrate the
effectiveness of our proposal.
- Abstract(参考訳): 本稿では,領域一般化のためのテスト時間におけるエネルギーベースサンプル適応を提案する。
以前の研究がターゲットドメインにモデルを適応する場合、未確認のターゲットサンプルをソース学習モデルに適応させます。
そこで本研究では,サンプル適応のための条件分布とデータ分布を協調的にモデル化するために,ソース領域で訓練された識別エネルギーベースモデルを設計する。
このモデルは、分類器とエネルギー関数を同時に学習するように最適化される。
対象試料をソース分布に適応させるために,確率勾配ランゲヴィンダイナミクスを用いたエネルギー最小化により繰り返し更新する。
さらに,適応中のサンプルのカテゴリ情報を保存するために,エネルギーベースモデルにカテゴリ的潜在変数を導入する。
潜在変数は変分推論によって適応する前に元のサンプルから学習され、サンプル更新を導く条件として固定される。
画像とマイクロブログスレッドの分類のための6つのベンチマーク実験により,提案手法の有効性が示された。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Generating High Fidelity Synthetic Data via Coreset selection and
Entropic Regularization [15.866662428675054]
本稿では,コアセット選択法とエントロピー正規化法を組み合わせて,最も高い忠実度サンプルを選択することを提案する。
半教師付き学習シナリオでは、ラベル付きデータセットを増大させ、選択したサンプルのサブセットを追加することにより、精度が向上することを示す。
論文 参考訳(メタデータ) (2023-01-31T22:59:41Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Learning to Generalize across Domains on Single Test Samples [126.9447368941314]
単体テストサンプルでドメインをまたいで一般化することを学ぶ。
変分ベイズ推論問題として単検体への適応を定式化する。
我々のモデルは、ドメインの一般化のための複数のベンチマークにおいて、最先端のメソッドよりも少なくとも同等で、より優れたパフォーマンスを達成します。
論文 参考訳(メタデータ) (2022-02-16T13:21:04Z) - Gradual Domain Adaptation in the Wild:When Intermediate Distributions
are Absent [32.906658998929394]
目標が目標分布に向かってモデルをシフトさせる場合、ドメイン適応の問題に焦点をあてる。
本稿では,ソース領域とターゲット領域の例を補間することで,中間分布から仮想サンプルを作成するGIFTを提案する。
論文 参考訳(メタデータ) (2021-06-10T22:47:06Z) - Exponential Tilting of Generative Models: Improving Sample Quality by
Training and Sampling from Latent Energy [6.767885381740952]
本手法は,事前学習した生成モデルにより生成した標本上でエネルギー関数を生成する潜在変数空間上のエネルギー関数を構築する。
提案手法を用いることで,一般的な確率に基づく生成モデルのサンプル品質を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2020-06-15T02:58:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。