論文の概要: Learning to Refit for Convex Learning Problems
- arxiv url: http://arxiv.org/abs/2111.12545v1
- Date: Wed, 24 Nov 2021 15:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:09:15.144117
- Title: Learning to Refit for Convex Learning Problems
- Title(参考訳): 凸学習問題の修正への学習
- Authors: Yingyan Zeng, Tianhao Wang, Si Chen, Hoang Anh Just, Ran Jin, Ruoxi
Jia
- Abstract要約: ニューラルネットワークを用いて、異なるトレーニングセットに対して最適化されたモデルパラメータを推定するフレームワークを提案する。
我々は、凸問題を近似するためにニューラルネットワークのパワーを厳格に特徴づける。
- 参考スコア(独自算出の注目度): 11.464758257681197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) models need to be frequently retrained on changing
datasets in a wide variety of application scenarios, including data valuation
and uncertainty quantification. To efficiently retrain the model, linear
approximation methods such as influence function have been proposed to estimate
the impact of data changes on model parameters. However, these methods become
inaccurate for large dataset changes. In this work, we focus on convex learning
problems and propose a general framework to learn to estimate optimized model
parameters for different training sets using neural networks. We propose to
enforce the predicted model parameters to obey optimality conditions and
maintain utility through regularization techniques, which significantly improve
generalization. Moreover, we rigorously characterize the expressive power of
neural networks to approximate the optimizer of convex problems. Empirical
results demonstrate the advantage of the proposed method in accurate and
efficient model parameter estimation compared to the state-of-the-art.
- Abstract(参考訳): 機械学習(ML)モデルは、データバリュエーションや不確実性定量化など、さまざまなアプリケーションシナリオにおけるデータセットの変更に対して、頻繁にトレーニングする必要がある。
モデルパラメータに対するデータ変化の影響を推定するために,影響関数などの線形近似法が提案されている。
しかし、これらの手法は大規模なデータセット変更には不正確になる。
本研究では,凸学習問題に着目し,ニューラルネットワークを用いたトレーニングセットの最適化モデルパラメータを推定するための汎用フレームワークを提案する。
本稿では,予測モデルパラメータを最適条件に従うように強制し,正規化手法による実用性を維持することを提案する。
さらに,畳み込み問題の最適化を近似するために,ニューラルネットワークの表現力を厳格に特徴付ける。
実験結果から,提案手法の高精度かつ効率的なモデルパラメータ推定における有効性を示す。
関連論文リスト
- Efficient Frequency Selective Surface Analysis via End-to-End Model-Based Learning [2.66269503676104]
本稿では、高次元周波数選択面(FSS)の効率的な電磁解析のための革新的なエンドツーエンドモデルに基づくディープラーニング手法を提案する。
大規模なデータセットを必要とする従来のデータ駆動手法とは異なり、このアプローチは等価回路モデルからの物理的な洞察とディープラーニング技術を組み合わせて、モデルの複雑さを著しく低減し、予測精度を高める。
論文 参考訳(メタデータ) (2024-10-22T07:27:20Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Neural Networks for Parameter Estimation in Intractable Models [0.0]
本稿では,最大安定過程からパラメータを推定する方法を示す。
モデルシミュレーションのデータを入力として使用し,統計的パラメータを学習するために深層ニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-07-29T21:59:48Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - A Semiparametric Approach to Interpretable Machine Learning [9.87381939016363]
機械学習におけるブラックボックスモデルは、複雑な問題と高次元設定において優れた予測性能を示した。
透明性と解釈可能性の欠如は、重要な意思決定プロセスにおけるそのようなモデルの適用性を制限します。
半パラメトリック統計学のアイデアを用いて予測モデルにおける解釈可能性と性能のトレードオフを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-08T16:38:15Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。