論文の概要: Active Learning of Model Discrepancy with Bayesian Experimental Design
- arxiv url: http://arxiv.org/abs/2502.05372v1
- Date: Fri, 07 Feb 2025 22:54:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:56.153880
- Title: Active Learning of Model Discrepancy with Bayesian Experimental Design
- Title(参考訳): ベイズ実験設計によるモデル不一致の能動的学習
- Authors: Huchen Yang, Chuanqi Chen, Jin-Long Wu,
- Abstract要約: 逐次実験設計(BED)から得られたデータに基づいてモデル差分を効率的に学習する手法を提案する。
提案手法は, 逐次BEDによって提案されるデータを用いて, 高次元モデル差分率の能動的学習に対して, 効率的かつ堅牢であることを示す。
また,提案手法は古典的数値解法と近代自己微分可能解法の両方と互換性があることを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Digital twins have been actively explored in many engineering applications, such as manufacturing and autonomous systems. However, model discrepancy is ubiquitous in most digital twin models and has significant impacts on the performance of using those models. In recent years, data-driven modeling techniques have been demonstrated promising in characterizing the model discrepancy in existing models, while the training data for the learning of model discrepancy is often obtained in an empirical way and an active approach of gathering informative data can potentially benefit the learning of model discrepancy. On the other hand, Bayesian experimental design (BED) provides a systematic approach to gathering the most informative data, but its performance is often negatively impacted by the model discrepancy. In this work, we build on sequential BED and propose an efficient approach to iteratively learn the model discrepancy based on the data from the BED. The performance of the proposed method is validated by a classical numerical example governed by a convection-diffusion equation, for which full BED is still feasible. The proposed method is then further studied in the same numerical example with a high-dimensional model discrepancy, which serves as a demonstration for the scenarios where full BED is not practical anymore. An ensemble-based approximation of information gain is further utilized to assess the data informativeness and to enhance learning model discrepancy. The results show that the proposed method is efficient and robust to the active learning of high-dimensional model discrepancy, using data suggested by the sequential BED. We also demonstrate that the proposed method is compatible with both classical numerical solvers and modern auto-differentiable solvers.
- Abstract(参考訳): デジタル双生児は、製造や自律システムなど、多くの工学的応用において活発に研究されている。
しかし、ほとんどのデジタルツインモデルではモデルの不一致はユビキタスであり、それらのモデルの使用性能に大きな影響を及ぼす。
近年,データ駆動型モデリング技術は,既存のモデルにおけるモデル不一致の特徴付けにおいて有望であることが実証されているが,モデル不一致の学習のためのトレーニングデータはしばしば経験的手法で得られ,情報的データ収集の積極的なアプローチは,モデル不一致の学習の恩恵を受ける可能性がある。
一方、ベイズ実験設計(BED)は、最も情報性の高いデータを集めるための体系的なアプローチを提供するが、その性能はモデルの違いによって負の影響を受けやすい。
本研究では,逐次的BEDに基づいて構築し,BEDのデータに基づいてモデル差分を反復的に学習する効率的な手法を提案する。
提案手法の性能は, 対流拡散方程式が支配する古典的数値例によって検証され, 完全なBEDがまだ実現可能である。
提案手法は, 完全BEDが実用的でないシナリオの実証として機能する高次元モデル差分法を用いて, 同じ数値例でさらに研究される。
さらに、アンサンブルに基づく情報ゲインの近似を利用して、データ情報性を評価し、学習モデルの不一致を高める。
提案手法は, 逐次的BEDによって提案されるデータを用いて, 高次元モデル不一致の能動的学習に対して, 効率的かつ堅牢であることを示す。
また,提案手法は古典的数値解法と近代自己微分可能解法の両方と互換性があることを実証した。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Model-Based Diffusion for Trajectory Optimization [8.943418808959494]
データ無しで軌道最適化(TO)問題を解決するために拡散法を用いた最適化手法であるモデルベース拡散(MBD)を導入する。
MBDは外部データを必要としないが、様々な性質のデータと自然に統合して拡散過程を制御できる。
MBDは、最先端の強化学習とサンプリングベースのTOメソッドを上回り、コンタクトリッチなタスクに挑戦する。
論文 参考訳(メタデータ) (2024-05-28T22:14:25Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Diffusion models for missing value imputation in tabular data [10.599563005836066]
機械学習における値計算の欠落は、利用可能な情報を用いてデータセットの欠落値を正確に推定するタスクである。
本稿では,タブラルデータに対する連続スコアベース拡散モデル (CSDI_T) と呼ばれる拡散モデル手法を提案する。
分類変数と数値変数を同時に処理するために, ワンホット符号化, アナログビット符号化, 特徴トークン化という3つの手法を検討した。
論文 参考訳(メタデータ) (2022-10-31T08:13:26Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - MixKD: Towards Efficient Distillation of Large-scale Language Models [129.73786264834894]
データに依存しない蒸留フレームワークであるMixKDを提案する。
妥当な条件下では、MixKDは誤差と経験的誤差の間のギャップを小さくする。
限定的なデータ設定とアブレーションによる実験は、提案手法の利点をさらに証明している。
論文 参考訳(メタデータ) (2020-11-01T18:47:51Z) - Domain Knowledge Integration By Gradient Matching For Sample-Efficient
Reinforcement Learning [0.0]
本研究では,モデルフリー学習者を支援するために,ダイナミックスからの目標勾配情報を活用することで,サンプル効率を向上させる勾配マッチングアルゴリズムを提案する。
本稿では,モデルに基づく学習者からの勾配情報と,抽象的な低次元空間におけるモデル自由成分とをマッチングする手法を提案する。
論文 参考訳(メタデータ) (2020-05-28T05:02:47Z) - Amortized Bayesian model comparison with evidential deep learning [0.12314765641075436]
本稿では,専門的なディープラーニングアーキテクチャを用いたベイズモデルの比較手法を提案する。
提案手法は純粋にシミュレーションベースであり,観測された各データセットに対して,すべての代替モデルを明示的に適合させるステップを回避している。
提案手法は,本研究で検討した事例に対して,精度,キャリブレーション,効率の点で優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-22T15:15:46Z) - Sequential Bayesian Experimental Design for Implicit Models via Mutual
Information [12.68659360172393]
自然科学と医学科学に特に興味を持つモデルのクラスは暗黙のモデルである。
モデルパラメータとシミュレーションデータ間の相互情報(MI)を実用関数として用いたパラメータ推定のための新しい逐次設計フレームワークを考案する。
我々のフレームワークは、テストされた様々な暗黙のモデルに対して効率的であることが分かり、数回の反復で正確なパラメータ推定が得られます。
論文 参考訳(メタデータ) (2020-03-20T16:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。