論文の概要: Maintaining Stability and Plasticity for Predictive Churn Reduction
- arxiv url: http://arxiv.org/abs/2305.04135v1
- Date: Sat, 6 May 2023 20:56:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 17:31:02.050316
- Title: Maintaining Stability and Plasticity for Predictive Churn Reduction
- Title(参考訳): チャーン低減のための安定性と塑性の維持
- Authors: George Adam, Benjamin Haibe-Kains, Anna Goldenberg
- Abstract要約: 我々は,累積モデル組合せ (AMC) という解を提案する。
AMCは一般的な手法であり、モデルやデータ特性に応じてそれぞれ独自の利点を持ついくつかの事例を提案する。
- 参考スコア(独自算出の注目度): 8.971668467496055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deployed machine learning models should be updated to take advantage of a
larger sample size to improve performance, as more data is gathered over time.
Unfortunately, even when model updates improve aggregate metrics such as
accuracy, they can lead to errors on samples that were correctly predicted by
the previous model causing per-sample regression in performance known as
predictive churn. Such prediction flips erode user trust thereby reducing the
effectiveness of the human-AI team as a whole. We propose a solution called
Accumulated Model Combination (AMC) based keeping the previous and current
model version, and generating a meta-output using the prediction of the two
models. AMC is a general technique and we propose several instances of it, each
having their own advantages depending on the model and data properties. AMC
requires minimal additional computation and changes to training procedures. We
motivate the need for AMC by showing the difficulty of making a single model
consistent with its own predictions throughout training thereby revealing an
implicit stability-plasticity tradeoff when training a single model. We
demonstrate the effectiveness of AMC on a variety of modalities including
computer vision, text, and tabular datasets comparing against state-of-the-art
churn reduction methods, and showing superior churn reduction ability compared
to all existing methods while being more efficient than ensembles.
- Abstract(参考訳): デプロイされた機械学習モデルは、時間とともにより多くのデータが収集されるため、パフォーマンスを改善するためにより大きなサンプルサイズを利用するように更新されるべきである。
残念なことに、モデル更新が精度などの集約メトリクスを改善したとしても、前のモデルで正しく予測されたサンプルのエラーが発生する可能性がある。
このような予測は、ユーザ信頼を損なうため、人間-AIチーム全体の効率性が低下する。
本研究では,前モデルと現在のモデルバージョンを維持し,2つのモデルの予測を用いたメタ出力を生成する,累積モデル結合 (amc) というソリューションを提案する。
AMCは一般的な手法であり、モデルやデータ特性によってそれぞれ独自の利点を持ついくつかの事例を提案する。
AMCは最小限の追加計算と訓練手順の変更を必要とする。
AMCの必要性は、トレーニングを通して、単一のモデルを自身の予測と一致させることが困難であることを示し、単一のモデルをトレーニングする際の暗黙の安定性と塑性のトレードオフを明らかにすることで動機づけられる。
コンピュータビジョン,テキスト,表形式のデータセットなど,各種のモダリティに対するAMCの有効性を,最先端のチャーン削減手法と比較し,アンサンブルよりも効率的でありながら,既存のすべての手法と比較して優れたチャーン低減能力を示す。
関連論文リスト
- On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Learning Augmentation Policies from A Model Zoo for Time Series Forecasting [58.66211334969299]
本稿では,強化学習に基づく学習可能なデータ拡張手法であるAutoTSAugを紹介する。
限界サンプルを学習可能なポリシーで強化することにより、AutoTSAugは予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - A Comprehensive Modeling Approach for Crop Yield Forecasts using
AI-based Methods and Crop Simulation Models [0.21094707683348418]
本稿では,データ駆動型ソリューション,作物シミュレーションモデル,モデルサロゲートを組み合わせた収量予測のための総合的アプローチを提案する。
データ駆動型モデリング手法は従来の手法よりも91%近い収率相関予測で優れていた。
論文 参考訳(メタデータ) (2023-06-16T18:13:24Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - End-to-End Weak Supervision [15.125993628007972]
下流モデルを直接学習するためのエンドツーエンドアプローチを提案する。
下流テストセットにおけるエンドモデル性能の観点から,先行作業よりも性能が向上したことを示す。
論文 参考訳(メタデータ) (2021-07-05T19:10:11Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Model-based Policy Optimization with Unsupervised Model Adaptation [37.09948645461043]
本研究では,不正確なモデル推定による実データとシミュレーションデータのギャップを埋めて,より良いポリシ最適化を実現する方法について検討する。
本稿では,教師なしモデル適応を導入したモデルベース強化学習フレームワークAMPOを提案する。
提案手法は,一連の連続制御ベンチマークタスクにおけるサンプル効率の観点から,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-10-19T14:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。