論文の概要: Model adaptation and unsupervised learning with non-stationary batch
data under smooth concept drift
- arxiv url: http://arxiv.org/abs/2002.04094v1
- Date: Mon, 10 Feb 2020 21:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:39:19.816102
- Title: Model adaptation and unsupervised learning with non-stationary batch
data under smooth concept drift
- Title(参考訳): 滑らかな概念ドリフト下における非定常バッチデータによるモデル適応と教師なし学習
- Authors: Subhro Das, Prasanth Lade, Soundar Srinivasan
- Abstract要約: ほとんどの予測モデルは、トレーニングとテストデータは定常的なプロセスから生成されると仮定する。
我々は、データソースの非定常性に起因する段階的な概念の漂流のシナリオを考察する。
予測モデルの教師なし適応のための新しい反復アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.068725688880772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most predictive models assume that training and test data are generated from
a stationary process. However, this assumption does not hold true in practice.
In this paper, we consider the scenario of a gradual concept drift due to the
underlying non-stationarity of the data source. While previous work has
investigated this scenario under a supervised-learning and adaption conditions,
few have addressed the common, real-world scenario when labels are only
available during training. We propose a novel, iterative algorithm for
unsupervised adaptation of predictive models. We show that the performance of
our batch adapted prediction algorithm is better than that of its corresponding
unadapted version. The proposed algorithm provides similar (or better, in most
cases) performance within significantly less run time compared to other state
of the art methods. We validate our claims though extensive numerical
evaluations on both synthetic and real data.
- Abstract(参考訳): ほとんどの予測モデルは、トレーニングとテストデータは定常プロセスから生成されると仮定している。
しかし、実際にはこの仮定は当てはまらない。
本稿では,データソースの非定常性に起因した漸進的概念ドリフトのシナリオについて考察する。
これまでの研究は、教師付き学習と適応の条件下でこのシナリオを調査してきたが、ラベルがトレーニング中にのみ利用できる場合の、一般的な現実世界のシナリオに対処した例は少ない。
予測モデルの教師なし適応のための新しい反復アルゴリズムを提案する。
本稿では,バッチ適応予測アルゴリズムの性能が,対応する未適応バージョンよりも優れていることを示す。
提案アルゴリズムは,他の技術手法と比較して,実行時間内での類似(あるいはほとんどの場合,より優れた)性能を提供する。
合成データと実データの両方について広範囲な数値評価を行いながら,我々の主張を検証する。
関連論文リスト
- Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Robust Continual Test-time Adaptation: Instance-aware BN and
Prediction-balanced Memory [58.72445309519892]
テストデータストリーム以外のデータストリームに対して堅牢な新しいテスト時間適応方式を提案する。
a)分布外サンプルの正規化を修正するIABN(Instance-Aware Batch Normalization)と、(b)クラスバランスのない方法で非i.d.ストリームからのデータストリームをシミュレートするPBRS(Predict- Balanced Reservoir Sampling)である。
論文 参考訳(メタデータ) (2022-08-10T03:05:46Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Parameter-free Online Test-time Adaptation [19.279048049267388]
実世界の様々なシナリオにおいて,テスト時間適応手法が事前学習されたモデルにどのような効果をもたらすかを示す。
我々は特に「保守的」なアプローチを提案し、ラプラシアン適応最大推定(LAME)を用いてこの問題に対処する。
提案手法では,既存の手法よりもシナリオの平均精度がはるかに高く,メモリフットプリントもはるかに高速である。
論文 参考訳(メタデータ) (2022-01-15T00:29:16Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Monotonicity in practice of adaptive testing [0.0]
本稿では,最近提案された単調性勾配アルゴリズムを用いて学習した適応テストのためのベイジアンネットワークモデルについて検討する。
手法の質は、チェコ国立数学試験の大規模なデータセットで実証的に評価される。
論文 参考訳(メタデータ) (2020-09-15T10:55:41Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。