論文の概要: TwinLab: a framework for data-efficient training of non-intrusive reduced-order models for digital twins
- arxiv url: http://arxiv.org/abs/2407.03924v1
- Date: Thu, 4 Jul 2024 13:37:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 17:53:13.170562
- Title: TwinLab: a framework for data-efficient training of non-intrusive reduced-order models for digital twins
- Title(参考訳): TwinLab: デジタル双生児のための非侵襲的低次モデルのデータ効率トレーニングのためのフレームワーク
- Authors: Maximilian Kannapinn, Michael Schäfer, Oliver Weeger,
- Abstract要約: 本研究では,2つのデータセットしか持たないニューラル-ODE型リダクションオーダモデルの,効率的かつ高精度なトレーニングフレームワークであるTwinLabを提案する。
トレーニングに最適なデータセットをひとつ見つけた後、類似性とエラー対策の助けを借りて第2のデータセットを求め、トレーニングプロセスを効果的に強化する。
発見: トレーニングプロセスに適切な第2のトレーニングデータセットを追加すると、テストエラーが最大49%削減される。
- 参考スコア(独自算出の注目度): 0.7863035464831994
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Purpose: Simulation-based digital twins represent an effort to provide high-accuracy real-time insights into operational physical processes. However, the computation time of many multi-physical simulation models is far from real-time. It might even exceed sensible time frames to produce sufficient data for training data-driven reduced-order models. This study presents TwinLab, a framework for data-efficient, yet accurate training of neural-ODE type reduced-order models with only two data sets. Design/methodology/approach: Correlations between test errors of reduced-order models and distinct features of corresponding training data are investigated. Having found the single best data sets for training, a second data set is sought with the help of similarity and error measures to enrich the training process effectively. Findings: Adding a suitable second training data set in the training process reduces the test error by up to 49% compared to the best base reduced-order model trained only with one data set. Such a second training data set should at least yield a good reduced-order model on its own and exhibit higher levels of dissimilarity to the base training data set regarding the respective excitation signal. Moreover, the base reduced-order model should have elevated test errors on the second data set. The relative error of the time series ranges from 0.18% to 0.49%. Prediction speed-ups of up to a factor of 36,000 are observed. Originality: The proposed computational framework facilitates the automated, data-efficient extraction of non-intrusive reduced-order models for digital twins from existing simulation models, independent of the simulation software.
- Abstract(参考訳): 目的:シミュレーションに基づくディジタルツインは,操作物理的プロセスに対する高精度なリアルタイム洞察を提供することを目的としている。
しかし、多くの多物理シミュレーションモデルの計算時間はリアルタイムには程遠い。
データ駆動のダウンオーダーモデルのトレーニングに十分なデータを生成するのに、適切な時間枠を超えるかもしれません。
本研究では,2つのデータセットしか持たないニューラル-ODE型リダクションオーダモデルの,効率的かつ高精度なトレーニングフレームワークであるTwinLabを提案する。
設計・方法論・アプローチ: 縮小順序モデルの試験誤差と対応する訓練データの特徴の相関について検討した。
トレーニングに最適なデータセットをひとつ見つけた後、類似性とエラー対策の助けを借りて第2のデータセットを求め、トレーニングプロセスを効果的に強化する。
発見: トレーニングプロセスに適切な第2のトレーニングデータセットを追加すると、テストエラーが最大49%削減される。
このような第2のトレーニングデータセットは、少なくともそれ自体で優れた縮小順序モデルを生成し、各励起信号に関するベーストレーニングデータセットと高いレベルの相似性を示すべきである。
さらに、基本の低次モデルは、第2のデータセットでテストエラーを増大させるべきである。
時系列の相対誤差は0.18%から0.49%である。
予測速度は最大36,000倍に達する。
原点性:提案した計算フレームワークは,シミュレーションソフトウェアに依存しない既存のシミュレーションモデルから,ディジタル双生児のための非侵襲的低次モデルの自動抽出を容易にする。
関連論文リスト
- Distilled Datamodel with Reverse Gradient Matching [74.75248610868685]
オフライントレーニングとオンライン評価段階を含む,データ影響評価のための効率的なフレームワークを提案する。
提案手法は, 直接再学習法と比較して, プロセスの大幅な高速化を図りながら, 同等のモデル行動評価を実現する。
論文 参考訳(メタデータ) (2024-04-22T09:16:14Z) - Efficient Online Data Mixing For Language Model Pre-Training [101.45242332613944]
既存のデータ選択方法は、遅くて計算コストのかかるプロセスに悩まされる。
一方、データミキシングは、データポイントをまとめることで、データ選択の複雑さを低減する。
我々は,データ選択とデータ混合の両要素を組み合わせたオンラインデータ混合(ODM)の効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-05T00:42:35Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - On minimizing the training set fill distance in machine learning regression [0.552480439325792]
本研究では,選択した集合の充填距離を最小化することを目的としたデータ選択手法を提案する。
FPSを用いてトレーニングセットを選択することで、ガウスカーネル回帰アプローチの特定の場合のモデルの安定性を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-07-20T16:18:33Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - CLIP: Train Faster with Less Data [3.2575001434344286]
ディープラーニングモデルは、トレーニングに膨大な量のデータを必要とします。
近年、機械学習はモデル中心のアプローチからデータ中心のアプローチへとシフトしている。
CLIP(CLIP, Curriculum Learning with Iterative data Pruning)を提案する。
論文 参考訳(メタデータ) (2022-12-02T21:29:48Z) - Physics-based Digital Twins for Autonomous Thermal Food Processing:
Efficient, Non-intrusive Reduced-order Modeling [0.0]
本稿では,自律食品処理のための物理に基づくデータ駆動型Digital Twinフレームワークを提案する。
ROM試験におけるトレーニングデータの表面温度の標準偏差と低根平均二乗誤差との相関は、トレーニングデータの効率的な選択を可能にする。
論文 参考訳(メタデータ) (2022-09-07T10:58:38Z) - Data Aggregation for Reducing Training Data in Symbolic Regression [0.0]
本研究は、トレーニングデータを削減する方法と、遺伝的プログラミングのランタイムについても論じる。
K平均クラスタリングとデータビンニングはデータアグリゲーションに使われ、最も単純なデータリダクション法としてランダムサンプリングと比較される。
遺伝的プログラミングの性能は、ランダムな森林と線形回帰と比較される。
論文 参考訳(メタデータ) (2021-08-24T11:58:17Z) - Self-Supervised Pretraining Improves Self-Supervised Pretraining [83.1423204498361]
自己教師付き事前トレーニングには、高価で長い計算と大量のデータが必要で、データ拡張に敏感である。
本稿では,既存の事前学習モデルを用いて事前学習プロセスを初期化することにより,収束時間を短縮し,精度を向上させる階層的事前学習(HPT)について検討する。
HPTが最大80倍速く収束し、タスク全体の精度が向上し、自己監視された事前トレーニングプロセスの堅牢性が、画像増強ポリシーまたは事前トレーニングデータの量の変化に改善されることを示します。
論文 参考訳(メタデータ) (2021-03-23T17:37:51Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。