論文の概要: Learning from flowsheets: A generative transformer model for
autocompletion of flowsheets
- arxiv url: http://arxiv.org/abs/2208.00859v1
- Date: Mon, 1 Aug 2022 13:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 12:59:32.953111
- Title: Learning from flowsheets: A generative transformer model for
autocompletion of flowsheets
- Title(参考訳): フローシートからの学習:フローシートの自動補完のための生成トランスモデル
- Authors: Gabriel Vogel and Lukas Schulze Balhorn and Artur M. Schweidtmann
- Abstract要約: テキストベースのSFILES 2.0表記を用いて,フローシートを文字列として表現する。
変換器に基づく言語モデルを用いて,フローシートにおけるSFILES 2.0言語の文法構造と共通パターンを学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method enabling autocompletion of chemical flowsheets.
This idea is inspired by the autocompletion of text. We represent flowsheets as
strings using the text-based SFILES 2.0 notation and learn the grammatical
structure of the SFILES 2.0 language and common patterns in flowsheets using a
transformer-based language model. We pre-train our model on synthetically
generated flowsheets to learn the flowsheet language grammar. Then, we
fine-tune our model in a transfer learning step on real flowsheet topologies.
Finally, we use the trained model for causal language modeling to autocomplete
flowsheets. Eventually, the proposed method can provide chemical engineers with
recommendations during interactive flowsheet synthesis. The results demonstrate
a high potential of this approach for future AI-assisted process synthesis.
- Abstract(参考訳): ケミカルフローシートの自動補完を可能にする新しい手法を提案する。
このアイデアはテキストの自動補完に着想を得ている。
本研究では、テキストベースのSFILES 2.0表記法を用いてフローシートを文字列として表現し、変換器ベースの言語モデルを用いて、フローシートにおけるSFILES 2.0言語の文法構造と共通パターンを学習する。
我々は、フローシート言語文法を学ぶために、合成生成フローシートに関するモデルを事前学習する。
次に,実際のフローシートトポロジ上での転送学習ステップでモデルを微調整する。
最後に、訓練されたモデルを用いて因果言語モデリングを行い、フローシートを自動補完する。
提案手法は, 対話型フローシート合成において, 化学工学者を推薦することができる。
この結果は、将来のAI支援プロセス合成におけるこのアプローチの可能性を示している。
関連論文リスト
- In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - Toward autocorrection of chemical process flowsheets using large
language models [0.0]
本稿では,フローシート内のエラーを識別し,ユーザに対して修正を提案する,新しい生成AI手法を提案する。
モデルへの入力は、潜在的に誤ったフローシートであり、モデルの出力は修正されたフローシートの提案である。
このモデルは、合成されたフローシートの独立したテストデータセット上で、トップ1の精度80%、トップ5の精度84%を達成する。
論文 参考訳(メタデータ) (2023-12-05T16:39:41Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Data augmentation for machine learning of chemical process flowsheets [0.0]
提案するデータ拡張により,人工知能に基づくプロセス設計モデルの性能が向上することを示す。
本研究では,フローシートデータの増大により,フローシート自動補完モデルの予測不確かさが14.7%向上した。
論文 参考訳(メタデータ) (2023-02-07T10:35:24Z) - FusionRetro: Molecule Representation Fusion via In-Context Learning for
Retrosynthetic Planning [58.47265392465442]
再合成計画(Retrosynthetic Planning)は、開始物質から標的分子への完全な多段階合成経路を考案することを目的としている。
現在の戦略では、単一ステップの逆合成モデルと探索アルゴリズムの分離されたアプローチを採用している。
本稿では,文脈情報を利用した新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-30T08:44:58Z) - AutoFlow: Learning a Better Training Set for Optical Flow [62.40293188964933]
AutoFlowは、光学フローのトレーニングデータをレンダリングする手法である。
AutoFlowはPWC-NetとRAFTの両方の事前トレーニングにおいて最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-04-29T17:55:23Z) - Time-Stamped Language Model: Teaching Language Models to Understand the
Flow of Events [8.655294504286635]
我々はこの課題を質問応答問題として定式化することを提案する。
これにより、手続き的テキスト理解に適応することで、他のQAベンチマークで事前訓練された言語モデルを使用することができる。
Proparaデータセットで評価したモデルでは、F1スコアが3.1%上昇した状態での公開結果の改善が示されている。
論文 参考訳(メタデータ) (2021-04-15T17:50:41Z) - Automated Synthesis of Steady-State Continuous Processes using
Reinforcement Learning [0.0]
強化学習は、概念設計の事前知識を必要とせずに自動フローシート合成に使用できる。
フローシート合成は、2人の競技者のゲームとしてモデル化される。
この方法は四元系における反応蒸留プロセスにうまく適用される。
論文 参考訳(メタデータ) (2021-01-12T11:49:34Z) - Syntax-Enhanced Pre-trained Model [49.1659635460369]
BERTやRoBERTaなどの学習済みモデルを強化するために、テキストの構文構造を活用するという問題を研究する。
既存の手法では、事前学習段階または微調整段階のいずれかでテキストの構文を利用しており、両者の区別に苦しむ。
事前学習と微調整の両方の段階でテキストのシンタックスを利用するモデルを提示する。
論文 参考訳(メタデータ) (2020-12-28T06:48:04Z) - Flowtron: an Autoregressive Flow-based Generative Network for
Text-to-Speech Synthesis [23.115879727598262]
Flowtronは、音声合成のための自己回帰型フローベース生成ネットワークである。
学習中の音声の変動, サンプル間, 聴取者間のスタイル伝達の制御について検討した。
論文 参考訳(メタデータ) (2020-05-12T17:57:17Z) - DiscreTalk: Text-to-Speech as a Machine Translation Problem [52.33785857500754]
本稿ではニューラルマシン翻訳(NMT)に基づくエンドツーエンドテキスト音声合成(E2E-TTS)モデルを提案する。
提案モデルは,非自己回帰ベクトル量子化変分オートエンコーダ(VQ-VAE)モデルと自己回帰トランスフォーマー-NMTモデルという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-05-12T02:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。