論文の概要: Transfer Learning with Uncertainty Quantification: Random Effect
Calibration of Source to Target (RECaST)
- arxiv url: http://arxiv.org/abs/2211.16557v1
- Date: Tue, 29 Nov 2022 19:39:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:41:26.969848
- Title: Transfer Learning with Uncertainty Quantification: Random Effect
Calibration of Source to Target (RECaST)
- Title(参考訳): 不確実性量子化を用いた移動学習:ソース・ターゲット(RECaST)のランダム効果校正
- Authors: Jimmy Hickey, Jonathan P. Williams, Emily C. Hector
- Abstract要約: 我々はRECaSTと呼ばれる伝達学習に基づくモデル予測のための統計的枠組みを開発する。
線形モデル間の伝達学習におけるRECaST手法の有効性を数学的・実験的に実証した。
シミュレーション研究における本手法の性能と実際の病院データへの適用について検討する。
- 参考スコア(独自算出の注目度): 1.8047694351309207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning uses a data model, trained to make predictions or
inferences on data from one population, to make reliable predictions or
inferences on data from another population. Most existing transfer learning
approaches are based on fine-tuning pre-trained neural network models, and fail
to provide crucial uncertainty quantification. We develop a statistical
framework for model predictions based on transfer learning, called RECaST. The
primary mechanism is a Cauchy random effect that recalibrates a source model to
a target population; we mathematically and empirically demonstrate the validity
of our RECaST approach for transfer learning between linear models, in the
sense that prediction sets will achieve their nominal stated coverage, and we
numerically illustrate the method's robustness to asymptotic approximations for
nonlinear models. Whereas many existing techniques are built on particular
source models, RECaST is agnostic to the choice of source model. For example,
our RECaST transfer learning approach can be applied to a continuous or
discrete data model with linear or logistic regression, deep neural network
architectures, etc. Furthermore, RECaST provides uncertainty quantification for
predictions, which is mostly absent in the literature. We examine our method's
performance in a simulation study and in an application to real hospital data.
- Abstract(参考訳): 転送学習は、ある集団のデータに対する予測や推論を行うように訓練されたデータモデルを使用して、信頼できる予測や別の集団のデータに対する推論を行う。
既存の転写学習アプローチのほとんどは、微調整済みのトレーニング済みニューラルネットワークモデルに基づいており、重要な不確実性定量化を提供していない。
我々は,転送学習に基づくモデル予測のための統計的フレームワーク,recastを開発した。
我々は線形モデル間の伝達学習に対する再キャスト手法の有効性を数学的および経験的に実証し、予測集合がそれらの名目上のカバレッジを達成するという意味で実証し、非線形モデルに対する漸近近似に対する方法の頑健さを数値的に示す。
既存の多くのテクニックが特定のソースモデル上に構築されているのに対して、RECaSTはソースモデルの選択に依存しない。
例えば、RECaST転送学習アプローチは、線形またはロジスティック回帰、ディープニューラルネットワークアーキテクチャなどを備えた連続的または離散的なデータモデルに適用できます。
さらに、RECaSTは予測に不確実な定量化を提供するが、文献にはほとんど存在しない。
シミュレーション研究における本手法の性能と実際の病院データへの適用について検討する。
関連論文リスト
- Source-Free Domain-Invariant Performance Prediction [68.39031800809553]
本研究では,不確実性に基づく推定を主軸としたソースフリー手法を提案する。
オブジェクト認識データセットのベンチマーク実験により、既存のソースベースの手法は、限られたソースサンプルの可用性で不足していることが判明した。
提案手法は,現在の最先端のソースフリーおよびソースベース手法よりも優れており,ドメイン不変性能推定の有効性が確認されている。
論文 参考訳(メタデータ) (2024-08-05T03:18:58Z) - How Inverse Conditional Flows Can Serve as a Substitute for Distributional Regression [2.9873759776815527]
逆流変換(DRIFT)を用いた分布回帰の枠組みを提案する。
DRIFTは解釈可能な統計モデルと柔軟なニューラルネットワークの両方をカバーする。
論文 参考訳(メタデータ) (2024-05-08T21:19:18Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Kalman Filter for Online Classification of Non-Stationary Data [101.26838049872651]
オンライン連続学習(OCL)では、学習システムはデータのストリームを受け取り、予測とトレーニングの手順を順次実行する。
本稿では,線形予測量に対するニューラル表現と状態空間モデルを用いた確率ベイズオンライン学習モデルを提案する。
多クラス分類の実験では、モデルの予測能力と非定常性を捉える柔軟性を示す。
論文 参考訳(メタデータ) (2023-06-14T11:41:42Z) - Surrogate uncertainty estimation for your time series forecasting black-box: learn when to trust [2.0393477576774752]
本研究では不確実性推定手法を紹介する。
妥当な不確実性推定を伴うベース回帰モデルを強化する。
各種時系列予測データを用いて, 代理モデルに基づく手法により, 精度の高い信頼区間が得られることがわかった。
論文 参考訳(メタデータ) (2023-02-06T14:52:56Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Bayesian Imaging With Data-Driven Priors Encoded by Neural Networks:
Theory, Methods, and Algorithms [2.266704469122763]
本稿では,事前知識がトレーニングデータとして利用可能である逆問題に対して,ベイズ推定を行う新しい手法を提案する。
容易に検証可能な条件下で,関連する後方モーメントの存在と適切性を確立する。
モデル精度解析により、データ駆動モデルによって報告されるベイズ確率は、頻繁な定義の下で著しく正確であることが示された。
論文 参考訳(メタデータ) (2021-03-18T11:34:08Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Transfer Learning for Linear Regression: a Statistical Test of Gain [2.1550839871882017]
Transfer Learningは、ソースデータセットから同様のターゲットデータセットへの知識の再利用を目指している。
新しい入力ベクトル$x$に対する転送の質は固有基底における表現に依存することが示されている。
微調整モデルがベースターゲットモデルよりも予測2次リスクが低いかどうかを予測するために統計的テストが構築される。
論文 参考訳(メタデータ) (2021-02-18T17:46:26Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。