論文の概要: CrystalGPT: Enhancing system-to-system transferability in
crystallization prediction and control using time-series-transformers
- arxiv url: http://arxiv.org/abs/2306.03099v1
- Date: Wed, 31 May 2023 12:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 13:36:39.896696
- Title: CrystalGPT: Enhancing system-to-system transferability in
crystallization prediction and control using time-series-transformers
- Title(参考訳): CrystalGPT: 時系列変換器を用いた結晶化予測と制御におけるシステム間転送性の向上
- Authors: Niranjan Sitapure, Joseph S. Kwon
- Abstract要約: Time-Series-Transformer (TST)フレームワークは強力な転送学習機能を利用する。
CrystalGPTは既存のMLモデルの8倍の累積誤差を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For prediction and real-time control tasks, machine-learning (ML)-based
digital twins are frequently employed. However, while these models are
typically accurate, they are custom-designed for individual systems, making
system-to-system (S2S) transferability difficult. This occurs even when
substantial similarities exist in the process dynamics across different
chemical systems. To address this challenge, we developed a novel
time-series-transformer (TST) framework that exploits the powerful transfer
learning capabilities inherent in transformer algorithms. This was demonstrated
using readily available process data obtained from different crystallizers
operating under various operational scenarios. Using this extensive dataset, we
trained a TST model (CrystalGPT) to exhibit remarkable S2S transferability not
only across all pre-established systems, but also to an unencountered system.
CrystalGPT achieved a cumulative error across all systems, which is eight times
superior to that of existing ML models. Additionally, we coupled CrystalGPT
with a predictive controller to reduce the variance in setpoint tracking to
just 1%.
- Abstract(参考訳): 予測とリアルタイム制御タスクでは、機械学習(ml)ベースのデジタルツインが頻繁に用いられる。
しかしながら、これらのモデルは一般的に正確であるが、個々のシステム向けにカスタム設計されており、システム間転送(S2S)が困難である。
これは、異なる化学系にわたる過程のダイナミクスにかなりの類似性が存在する場合でも起こる。
この課題に対処するために、トランスフォーマーアルゴリズムに固有の強力なトランスファー学習機能を利用する新しい時系列変換器(TST)フレームワークを開発した。
これは様々な操作シナリオで異なる結晶化器から得られる容易に利用可能なプロセスデータを用いて実証された。
この広範囲なデータセットを用いて、TSTモデル(CrystalGPT)をトレーニングし、事前に確立されたすべてのシステムにまたがる優れたS2S転送性を示した。
CrystalGPTは既存のMLモデルの8倍の累積誤差を達成した。
さらに,CrystalGPTと予測コントローラを結合して,セットポイントトラッキングのばらつきを1%に抑えることができた。
関連論文リスト
- UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Can Transformers Learn Optimal Filtering for Unknown Systems? [21.214392963929978]
過去の全ての出力予測を生成する変換器を用いた最適出力推定問題について検討する。
我々は、様々な異なるシステムを用いてトランスフォーマーを訓練し、未知のダイナミクスを持つ未知のシステムの性能を評価する。
非d.d.ノイズ、時間変化力学、未知のパラメータを持つ四元数系のような非線形力学のより複雑な設定では、トランスフォーマーも有望な結果を示す。
論文 参考訳(メタデータ) (2023-08-16T17:52:11Z) - Controlling dynamical systems to complex target states using machine
learning: next-generation vs. classical reservoir computing [68.8204255655161]
機械学習を用いた非線形力学系の制御は、システムを周期性のような単純な振る舞いに駆動するだけでなく、より複雑な任意の力学を駆動する。
まず, 従来の貯水池計算が優れていることを示す。
次のステップでは、これらの結果を異なるトレーニングデータに基づいて比較し、代わりに次世代貯水池コンピューティングを使用する別のセットアップと比較する。
その結果、通常のトレーニングデータに対して同等のパフォーマンスを提供する一方で、次世代RCは、非常に限られたデータしか利用できない状況において、著しくパフォーマンスが向上していることがわかった。
論文 参考訳(メタデータ) (2023-07-14T07:05:17Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Continuous Spatiotemporal Transformers [2.485182034310304]
連続時間変換器(Continuous Stemporal Transformer, CST)は, 連続系をモデル化するためのトランスフォーマアーキテクチャである。
この新しいフレームワークは、ソボレフ空間における最適化による連続的な表現と出力を保証する。
我々は従来の変圧器や他のスムーズな時相力学モデリング手法に対してCSTをベンチマークし、合成および実システムにおける多くのタスクにおいて優れた性能を達成する。
論文 参考訳(メタデータ) (2023-01-31T00:06:56Z) - How Crucial is Transformer in Decision Transformer? [29.228813063916206]
決定変換器(Decision Transformer, DT)は、最近提案された強化学習のためのアーキテクチャである。
連続制御タスクにおける完全なDTアーキテクチャにおけるTransformerモデルの重要性を分析する。
論文 参考訳(メタデータ) (2022-11-26T20:13:22Z) - CLMFormer: Mitigating Data Redundancy to Revitalize Transformer-based
Long-Term Time Series Forecasting System [46.39662315849883]
時系列予測(LTSF)は,様々な応用において重要な役割を担っている。
既存のTransformerベースのモデルであるFedformerやInformerは、いくつかのエポックの後、検証セット上で最高のパフォーマンスを達成することが多い。
本稿では,カリキュラム学習とメモリ駆動デコーダの導入により,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-07-16T04:05:15Z) - Learning Bounded Context-Free-Grammar via LSTM and the
Transformer:Difference and Explanations [51.77000472945441]
Long Short-Term Memory (LSTM) と Transformer は、自然言語処理タスクに使用される2つの一般的なニューラルネットワークアーキテクチャである。
実際には、トランスフォーマーモデルの方がLSTMよりも表現力が高いことがよく見られる。
本研究では,LSTMとTransformerの実践的差異について検討し,その潜在空間分解パターンに基づく説明を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:56:44Z) - Delayed Propagation Transformer: A Universal Computation Engine towards
Practical Control in Cyber-Physical Systems [68.75717332928205]
マルチエージェント制御はサイバー物理システムにおいて中心的なテーマである。
本稿では,CPSのグローバルモデリングを専門とするトランスフォーマーモデルを提案する。
物理的な制約帰納バイアスが設計に組み込まれているため、DePTは幅広い種類のマルチエージェントシステムにプラグアンドプレイする準備ができています。
論文 参考訳(メタデータ) (2021-10-29T17:20:53Z) - Machine learning based digital twin for dynamical systems with multiple
time-scales [0.0]
デジタルツイン技術は、インフラ、航空宇宙、自動車といった様々な産業分野で広く応用される可能性がある。
ここでは、2つの異なる運用時間スケールで進化する線形単一自由度構造力学系のためのデジタルツインフレームワークに焦点を当てる。
論文 参考訳(メタデータ) (2020-05-12T15:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。