論文の概要: A Study of Unsupervised Evaluation Metrics for Practical and Automatic
Domain Adaptation
- arxiv url: http://arxiv.org/abs/2308.00287v2
- Date: Mon, 18 Sep 2023 11:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 22:59:56.960364
- Title: A Study of Unsupervised Evaluation Metrics for Practical and Automatic
Domain Adaptation
- Title(参考訳): 実践的・自動ドメイン適応のための教師なし評価指標の検討
- Authors: Minghao Chen, Zepeng Gao, Shuai Zhao, Qibo Qiu, Wenxiao Wang, Binbin
Lin, Xiaofei He
- Abstract要約: 教師なしドメイン適応(UDA)メソッドは、ラベルなしでターゲットドメインへのモデル転送を容易にする。
本稿では,対象の検証ラベルにアクセスすることなく,移動モデルの品質を評価できる評価指標を見つけることを目的とする。
- 参考スコア(独自算出の注目度): 15.728090002818963
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised domain adaptation (UDA) methods facilitate the transfer of
models to target domains without labels. However, these methods necessitate a
labeled target validation set for hyper-parameter tuning and model selection.
In this paper, we aim to find an evaluation metric capable of assessing the
quality of a transferred model without access to target validation labels. We
begin with the metric based on mutual information of the model prediction.
Through empirical analysis, we identify three prevalent issues with this
metric: 1) It does not account for the source structure. 2) It can be easily
attacked. 3) It fails to detect negative transfer caused by the over-alignment
of source and target features. To address the first two issues, we incorporate
source accuracy into the metric and employ a new MLP classifier that is held
out during training, significantly improving the result. To tackle the final
issue, we integrate this enhanced metric with data augmentation, resulting in a
novel unsupervised UDA metric called the Augmentation Consistency Metric (ACM).
Additionally, we empirically demonstrate the shortcomings of previous
experiment settings and conduct large-scale experiments to validate the
effectiveness of our proposed metric. Furthermore, we employ our metric to
automatically search for the optimal hyper-parameter set, achieving superior
performance compared to manually tuned sets across four common benchmarks.
Codes will be available soon.
- Abstract(参考訳): unsupervised domain adaptation(uda)メソッドは、ラベルのないターゲットドメインへのモデル転送を容易にする。
しかし、これらの手法はハイパーパラメータチューニングとモデル選択のためのラベル付きターゲット検証セットを必要とする。
本稿では,対象の検証ラベルにアクセスすることなく,移動モデルの品質を評価できる評価指標を見つけることを目的とする。
まず,モデル予測の相互情報に基づく計量から始める。
経験分析を通して、この計量の3つの主要な問題を特定する。
1)ソース構造を考慮に入れない。
2) 容易に攻撃することができる。
3) ソースとターゲットの特徴の過剰な無視による負の転送の検出に失敗する。
最初の2つの問題に対処するために、情報源の精度を指標に組み込み、トレーニング中に保持される新しいMLP分類器を採用し、その結果を大幅に改善する。
最終課題に対処するため、この拡張メトリックをデータ拡張と統合し、ACM(Augmentation Consistency Metric)と呼ばれる新しい教師なしUDAメトリックを作成した。
さらに,これまでの実験環境の欠点を実証し,提案手法の有効性を検証するために大規模実験を行った。
さらに、我々の測定値を用いて最適なハイパーパラメータ集合を自動検索し、4つの共通ベンチマークで手動チューニングしたセットよりも優れた性能を実現する。
コードはもうすぐ入手できる。
関連論文リスト
- Weak Supervision Performance Evaluation via Partial Identification [46.73061437177238]
Programmatic Weak Supervision (PWS) は、地上の真理ラベルに直接アクセスすることなく、教師付きモデルトレーニングを可能にする。
本稿では,モデル評価を部分的同定問題としてフレーミングすることで,この問題に対処する新しい手法を提案する。
提案手法は,従来の弱監督評価手法において,ラベル付きデータを必要とせず,重要な指標に信頼性のあるバウンダリを導出する。
論文 参考訳(メタデータ) (2023-12-07T07:15:11Z) - Better Practices for Domain Adaptation [62.70267990659201]
ドメイン適応(DA)は、ラベルを使わずに、モデルを配置データに適用するためのフレームワークを提供することを目的としている。
DAの明確な検証プロトコルは、文献の悪い実践につながっている。
ドメイン適応手法の3つの分野にまたがる課題を示す。
論文 参考訳(メタデータ) (2023-09-07T17:44:18Z) - Exploring validation metrics for offline model-based optimisation with
diffusion models [50.404829846182764]
モデルベース最適化(MBO)では、マシンラーニングを使用して、(基底真理)オラクルと呼ばれるブラックボックス関数に対する報酬の尺度を最大化する候補を設計することに興味があります。
モデル検証中に基底オラクルに対する近似をトレーニングし、その代わりに使用することができるが、その評価は近似的であり、敵の例に対して脆弱である。
本手法は,外挿量を測定するために提案した評価フレームワークにカプセル化されている。
論文 参考訳(メタデータ) (2022-11-19T16:57:37Z) - Improving Test-Time Adaptation via Shift-agnostic Weight Regularization
and Nearest Source Prototypes [18.140619966865955]
本稿では,対象ドメインからの未ラベルのオンラインデータのみを用いて,ソースドメイン上で事前学習したモデルを調整する新しいテスト時間適応手法を提案する。
提案手法は,各種標準ベンチマークの最先端性能を示すとともに,教師付きベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-24T10:17:05Z) - Evaluating natural language processing models with generalization
metrics that do not need access to any training or testing data [66.11139091362078]
本稿では,Hugingface から事前学習した大規模トランスフォーマーに対して,一般化指標を用いた最初のモデル選択結果を提案する。
ニッチな状況にもかかわらず、ヘビーテール(HT)の観点から派生したメトリクスは、特にNLPタスクにおいて有用である。
論文 参考訳(メタデータ) (2022-02-06T20:07:35Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Tune it the Right Way: Unsupervised Validation of Domain Adaptation via
Soft Neighborhood Density [125.64297244986552]
本稿では,点間の類似度分布のエントロピーを計算し,ソフト近傍の密度を測定する教師なし検証基準を提案する。
私たちの基準は、競合する検証方法よりもシンプルですが、より効果的です。
論文 参考訳(メタデータ) (2021-08-24T17:41:45Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。