論文の概要: Continual Density Ratio Estimation in an Online Setting
- arxiv url: http://arxiv.org/abs/2103.05276v1
- Date: Tue, 9 Mar 2021 07:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 15:09:35.604083
- Title: Continual Density Ratio Estimation in an Online Setting
- Title(参考訳): オンライン設定における連続密度比の推定
- Authors: Yu Chen, Song Liu, Tom Diethe, Peter Flach
- Abstract要約: ストリーミングデータを持つオンラインアプリケーションでは、トレーニングやテストセットが元のデータセットからどの程度離れているかを認識することが、モデルのパフォーマンスに不可欠である。
本研究では,初期分布と電流分布の密度比を推定するための連続密度比推定法(CDRE)を提案する。
その結果,cdreは標準dreよりも,原分布からのサンプルを必要とせずとも,分布間のばらつきを推定できることがわかった。
- 参考スコア(独自算出の注目度): 12.516472146904375
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In online applications with streaming data, awareness of how far the training
or test set has shifted away from the original dataset can be crucial to the
performance of the model. However, we may not have access to historical samples
in the data stream. To cope with such situations, we propose a novel method,
Continual Density Ratio Estimation (CDRE), for estimating density ratios
between the initial and current distributions ($p/q_t$) of a data stream in an
iterative fashion without the need of storing past samples, where $q_t$ is
shifting away from $p$ over time $t$. We demonstrate that CDRE can be more
accurate than standard DRE in terms of estimating divergences between
distributions, despite not requiring samples from the original distribution.
CDRE can be applied in scenarios of online learning, such as importance
weighted covariate shift, tracing dataset changes for better decision making.
In addition, (CDRE) enables the evaluation of generative models under the
setting of continual learning. To the best of our knowledge, there is no
existing method that can evaluate generative models in continual learning
without storing samples from the original distribution.
- Abstract(参考訳): ストリーミングデータを持つオンラインアプリケーションでは、トレーニングやテストセットが元のデータセットからどの程度離れているかを認識することが、モデルのパフォーマンスに不可欠である。
しかし、データストリームの歴史的なサンプルにアクセスできないかもしれません。
そこで本研究では,データストリームの初期分布と現在の分布($p/q_t$)の密度比を,過去のサンプルを保存せずに反復的に推定する新しい手法であるCDRE(Continual Density Ratio Estimation)を提案し,時間とともに$q_t$が$p$から$t$にシフトする。
その結果,cdreは標準dreよりも,原分布からのサンプルを必要とせずとも,分布間のばらつきを推定できることがわかった。
CDREは、重み付けされた共変量シフト、より良い意思決定のためのデータセット変更のトレースなど、オンライン学習のシナリオに適用できる。
さらに、(CDRE)は連続学習の設定の下で生成モデルの評価を可能にします。
我々の知る限りでは、元の分布からサンプルを格納せずに連続学習における生成モデルを評価する方法が存在しない。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Distribution Alignment for Fully Test-Time Adaptation with Dynamic Online Data Streams [19.921480334048756]
TTA(Test-Time Adaptation)は、テストデータストリームの適応と推論を可能にする。
本稿では,TTAにおける新しい配電アライメント損失を提案する。
我々は、非i.d.シナリオにおける既存の手法を超越し、理想的なi.d.仮定の下で競争性能を維持する。
論文 参考訳(メタデータ) (2024-07-16T19:33:23Z) - DOMAIN: MilDly COnservative Model-BAsed OfflINe Reinforcement Learning [14.952800864366512]
保守主義は、正確なオフラインデータと不正確なモデルデータのバランスをとるために、アルゴリズムに組み込まれるべきです。
本稿では、モデル不確実性を推定することなく、milDly cOnservative Model-bAsed offlINe RLアルゴリズム(DOMAIN)を提案する。
大規模な実験の結果、DOMAINはD4RLデータセットのベンチマークにおいて、以前のRLアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-09-16T08:39:28Z) - Consistent Diffusion Models: Mitigating Sampling Drift by Learning to be
Consistent [97.64313409741614]
本稿では, モデルが生成したデータ上での予測が時間とともに一定であることを示す, 両立性特性を強制することを提案する。
CIFAR-10の条件および非条件生成とAFHQとFFHQのベースライン改良について,本研究の新たな訓練目標が得られた。
論文 参考訳(メタデータ) (2023-02-17T18:45:04Z) - Learn from Unpaired Data for Image Restoration: A Variational Bayes
Approach [18.007258270845107]
境界分布から抽出したデータから結合確率密度関数を学習するための深層生成法 LUD-VAE を提案する。
本稿では,LUD-VAEによって生成された合成データを用いて,実世界の画像認識と超分解能タスクに適用し,モデルを訓練する。
論文 参考訳(メタデータ) (2022-04-21T13:27:17Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - TraDE: Transformers for Density Estimation [101.20137732920718]
TraDEは自己回帰密度推定のための自己アテンションに基づくアーキテクチャである。
本稿では, 生成したサンプルを用いた回帰, 分布外検出, トレーニングデータにおける雑音に対する頑健性などのタスクについて述べる。
論文 参考訳(メタデータ) (2020-04-06T07:32:51Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。