論文の概要: Stochastic Optimization for Performative Prediction
- arxiv url: http://arxiv.org/abs/2006.06887v4
- Date: Fri, 19 Feb 2021 18:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:26:15.353750
- Title: Stochastic Optimization for Performative Prediction
- Title(参考訳): 実効予測のための確率的最適化
- Authors: Celestine Mendler-D\"unner, Juan C. Perdomo, Tijana Zrnic, Moritz
Hardt
- Abstract要約: モデルパラメータを単に更新することと、新しいモデルをデプロイすることの違いについて検討する。
各更新後にモデルを厳格にデプロイし、再デプロイする前に数回の更新を行うための収束率を証明する。
彼らは、パフォーマンス効果の強さによって、どちらのアプローチも他方よりも優れる体制が存在することを説明している。
- 参考スコア(独自算出の注目度): 31.876692592395777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In performative prediction, the choice of a model influences the distribution
of future data, typically through actions taken based on the model's
predictions.
We initiate the study of stochastic optimization for performative prediction.
What sets this setting apart from traditional stochastic optimization is the
difference between merely updating model parameters and deploying the new
model. The latter triggers a shift in the distribution that affects future
data, while the former keeps the distribution as is.
Assuming smoothness and strong convexity, we prove rates of convergence for
both greedily deploying models after each stochastic update (greedy deploy) as
well as for taking several updates before redeploying (lazy deploy). In both
cases, our bounds smoothly recover the optimal $O(1/k)$ rate as the strength of
performativity decreases. Furthermore, they illustrate how depending on the
strength of performative effects, there exists a regime where either approach
outperforms the other. We experimentally explore the trade-off on both
synthetic data and a strategic classification simulator.
- Abstract(参考訳): 実行予測では、モデルの選択は、通常、モデルの予測に基づいて取られた行動によって、将来のデータの分布に影響を与える。
性能予測のための確率的最適化の研究を開始する。
この設定と従来の確率最適化との違いは、モデルパラメータの更新と新しいモデルのデプロイだけの違いである。
後者は、将来のデータに影響を与える分布のシフトをトリガーし、前者は、その分布をそのまま保持する。
スムーズさと強い凸性を仮定すると、各確率的更新(greedy deploy)の後にモデルを厳格にデプロイするだけでなく、再デプロイ(lazy deploy)前にいくつかのアップデートを行うための収束率も証明します。
いずれの場合も,性能の強さが低下するにつれて,限界値が最適な$o(1/k)$率をスムーズに回復する。
さらに、パフォーマンス効果の強さによって、どちらのアプローチも他よりも優れる体制が存在することも示している。
我々は,合成データと戦略的分類シミュレータのトレードオフを実験的に検討する。
関連論文リスト
- Learning Augmentation Policies from A Model Zoo for Time Series Forecasting [58.66211334969299]
本稿では,強化学習に基づく学習可能なデータ拡張手法であるAutoTSAugを紹介する。
限界サンプルを学習可能なポリシーで強化することにより、AutoTSAugは予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Maintaining Stability and Plasticity for Predictive Churn Reduction [8.971668467496055]
我々は,累積モデル組合せ (AMC) という解を提案する。
AMCは一般的な手法であり、モデルやデータ特性に応じてそれぞれ独自の利点を持ついくつかの事例を提案する。
論文 参考訳(メタデータ) (2023-05-06T20:56:20Z) - Performative Prediction with Neural Networks [24.880495520422]
パフォーマンス予測は、予測するデータに影響を与えるモデルを学習するためのフレームワークである。
繰り返しリスク最小化法を用いて、性能的に安定な分類器を見つけるための標準収束結果は、データの分布がモデルのパラメータに連続であることを仮定する。
この研究では、データ分布はモデルの予測に関してリプシッツ連続であると仮定する。
論文 参考訳(メタデータ) (2023-04-14T01:12:48Z) - Confidence and Dispersity Speak: Characterising Prediction Matrix for
Unsupervised Accuracy Estimation [51.809741427975105]
この研究は、ラベルを使わずに、分散シフト下でのモデルの性能を評価することを目的としている。
我々は、両方の特性を特徴付けるのに有効であることが示されている核規範を用いる。
核の基準は既存の手法よりも正確で堅牢であることを示す。
論文 参考訳(メタデータ) (2023-02-02T13:30:48Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Backward-Compatible Prediction Updates: A Probabilistic Approach [12.049279991559091]
本稿では,予測更新問題を定式化し,上記の質問に対する効率的な確率的アプローチを提案する。
標準分類ベンチマークデータセットの広範な実験において,提案手法は後方互換性のある予測更新のための代替戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-02T13:05:31Z) - Beyond Point Estimate: Inferring Ensemble Prediction Variation from
Neuron Activation Strength in Recommender Systems [21.392694985689083]
Ensemble Methodは、予測不確実性推定のための最先端のベンチマークである。
予測のバリエーションは、様々なランダム性源から生じることを観察する。
本稿では,ニューロンの活性化強度の予測変動を推定し,活性化強度の特徴から強い予測力を示す。
論文 参考訳(メタデータ) (2020-08-17T00:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。