論文の概要: Learning task-specific predictive models for scientific computing
- arxiv url: http://arxiv.org/abs/2506.03835v1
- Date: Wed, 04 Jun 2025 11:02:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.298526
- Title: Learning task-specific predictive models for scientific computing
- Title(参考訳): 科学計算のためのタスク固有予測モデル学習
- Authors: Jianyuan Yin, Qianxiao Li,
- Abstract要約: 下流のタスクに後から使われる予測モデルについて検討する。
この設定は古典的な教師あり学習とは異なることを示す。
タスク固有の教師付き学習問題を解決するための反復アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 13.25953054381901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider learning a predictive model to be subsequently used for a given downstream task (described by an algorithm) that requires access to the model evaluation. This task need not be prediction, and this situation is frequently encountered in machine-learning-augmented scientific computing. We show that this setting differs from classical supervised learning, and in general it cannot be solved by minimizing the mean square error of the model predictions as is frequently performed in the literature. Instead, we find that the maximum prediction error on the support of the downstream task algorithm can serve as an effective estimate for the subsequent task performance. With this insight, we formulate a task-specific supervised learning problem based on the given sampling measure, whose solution serves as a reliable surrogate model for the downstream task. Then, we discretize the empirical risk based on training data, and develop an iterative algorithm to solve the task-specific supervised learning problem. Three illustrative numerical examples on trajectory prediction, optimal control and minimum energy path computation demonstrate the effectiveness of the approach.
- Abstract(参考訳): 我々は、モデル評価へのアクセスを必要とする特定の下流タスク(アルゴリズムによって記述される)に後から使用される予測モデルについて検討する。
この課題は予測される必要はなく、この状況は機械学習による科学計算で頻繁に発生する。
この設定は古典的な教師付き学習と異なり、一般的には文献で頻繁に行われているようなモデル予測の平均二乗誤差を最小化しても解けない。
その代わり、ダウンストリームタスクアルゴリズムのサポートにおける最大予測誤差が、その後のタスク性能の効果的な推定に役立てられることが判明した。
そこで,本研究では,ダウンストリームタスクの信頼できるサロゲートモデルとして機能する,与えられたサンプリング尺度に基づいて,タスク固有の教師付き学習問題を定式化する。
そして、トレーニングデータに基づいて経験的リスクを識別し、タスク固有の教師付き学習問題を解決するための反復アルゴリズムを開発する。
軌道予測,最適制御,最小エネルギー経路計算の3つの例は,提案手法の有効性を示している。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
本研究では,(マルチモーダル)自己教師型表現学習のデータ予測タスクにおいて,連続領域における識別確率モデルについて検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
MISが要求する条件付き確率密度の和を近似する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
点予測損失の最小化は、潜時関係情報の適切な学習を保証するものではないことを示す。
本稿では,この共同学習課題を解決するサンプリングベース手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - TaskMet: Task-Driven Metric Learning for Model Learning [29.0053868393653]
ディープラーニングモデルは、トレーニング手順が認識していない可能性のある下流タスクにデプロイされることが多い。
本稿では,モデルのパラメータよりも1段階深いタスク損失信号を用いて,モデルがトレーニングした損失関数のパラメータを学習する。
このアプローチは、最適な予測モデル自体を変更するのではなく、下流のタスクにとって重要な情報を強調するためにモデル学習を変更する。
論文 参考訳(メタデータ) (2023-12-08T18:59:03Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - First-order Optimization for Superquantile-based Supervised Learning [0.0]
本稿では,超量子的学習目標を最小化する一階最適化アルゴリズムを提案する。
提案アルゴリズムは,不完全な畳み込みによる超量子関数の平滑化に基づく。
論文 参考訳(メタデータ) (2020-09-30T11:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。