論文の概要: Locally-Deployed Chain-of-Thought (CoT) Reasoning Model in Chemical Engineering: Starting from 30 Experimental Data
- arxiv url: http://arxiv.org/abs/2502.12383v1
- Date: Mon, 17 Feb 2025 23:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:05:48.580015
- Title: Locally-Deployed Chain-of-Thought (CoT) Reasoning Model in Chemical Engineering: Starting from 30 Experimental Data
- Title(参考訳): 化学工学における局所展開型CoT推論モデル:30実験データから
- Authors: Tianhang Zhou, Yingchun Niu, Xingying Lan, Chunming Xu,
- Abstract要約: 本稿では,化学工学におけるChain-of-Thought(CoT)推論モデルの適用について検討する。
2つのCoT構築手法、Large Language Model-Chain of Thought (LLM-CoT)とMachine Learning-Large Language Model-Chain of Thought (ML-LLM-CoT)について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the field of chemical engineering, traditional data-processing and prediction methods face significant challenges. Machine-learning and large-language models (LLMs) also have their respective limitations. This paper explores the application of the Chain-of-Thought (CoT) reasoning model in chemical engineering, starting from 30 experimental data points. By integrating traditional surrogate models like Gaussian processes and random forests with powerful LLMs such as DeepSeek-R1, a hierarchical architecture is proposed. Two CoT-building methods, Large Language Model-Chain of Thought (LLM-CoT) and Machine Learning-Large Language Model-Chain of Thought (ML-LLM-CoT), are studied. The LLM-CoT combines local models DeepSeek-r1:14b and Qwen2:7b with Ollama. The ML-LLM-CoT integrates a pre-trained Gaussian ML model with the LLM-based CoT framework. Our results show that during construction, ML-LLM-CoT is more efficient. It only has 2 points that require rethink and a total of 4 rethink times, while LLM-CoT has 5 points that need to be re-thought and 34 total rethink times. In predicting the solubility of 20 molecules with dissimilar structures, the number of molecules with a prediction deviation higher than 100\% for the Gaussian model, LLM-CoT, and ML-LLM-CoT is 7, 6, and 4 respectively. These results indicate that ML-LLM-CoT performs better in controlling the number of high-deviation molecules, optimizing the average deviation, and achieving a higher success rate in solubility judgment, providing a more reliable method for chemical engineering and molecular property prediction. This study breaks through the limitations of traditional methods and offers new solutions for rapid property prediction and process optimization in chemical engineering.
- Abstract(参考訳): 化学工学の分野では、従来のデータ処理と予測手法が大きな課題に直面している。
機械学習と大規模言語モデル(LLM)にも、それぞれの制限がある。
本稿では,化学工学におけるChain-of-Thought(CoT)推論モデルの適用について,実験データ点30点から検討する。
ガウス過程やランダムフォレストのような従来の代理モデルとDeepSeek-R1のような強力なLLMを統合することで、階層アーキテクチャを提案する。
2つのCoT構築手法、Large Language Model-Chain of Thought (LLM-CoT)とMachine Learning-Large Language Model-Chain of Thought (ML-LLM-CoT)について検討した。
LLM-CoTはDeepSeek-r1:14bとQwen2:7bをOllamaと組み合わせている。
ML-LLM-CoTは、事前訓練されたガウスMLモデルとLLMベースのCoTフレームワークを統合している。
その結果,ML-LLM-CoTはより効率的であることがわかった。
LLM-CoTは再考が必要な5点、総再考が必要な34点である。
異なる構造を持つ20分子の溶解度を予測する際には, ガウスモデル, LLM-CoT, ML-LLM-CoTはそれぞれ7, 6, 4で, 予測偏差が100\%以上である分子の数がそれぞれ7, 6である。
これらの結果から, ML-LLM-CoTは, 高分解分子数の制御, 平均偏差の最適化, 溶解度判定における高い成功率を実現し, より信頼性の高い化学工学的手法と分子特性予測法を提供することが示唆された。
本研究は, 従来の手法の限界を突破し, 化学工学における高速な特性予測とプロセス最適化のための新しいソリューションを提供する。
関連論文リスト
- RoSTE: An Efficient Quantization-Aware Supervised Fine-Tuning Approach for Large Language Models [95.32315448601241]
本稿では,RoSTE (Rotated Straight-Through-Estimator) というアルゴリズムを提案する。
RoSTEは、量子化を意識した微調整(QA-SFT)と適応的な回転戦略を組み合わせることで、アクティベーションアウトリーを減少させる。
その結果, 予測誤差は収束重みの量子化誤差と直接比例し, 最適化された回転構成により効果的に管理できることが判明した。
論文 参考訳(メタデータ) (2025-02-13T06:44:33Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - Embedding Self-Correction as an Inherent Ability in Large Language Models for Enhanced Mathematical Reasoning [13.082135438792475]
自己補正の連鎖は、大規模言語モデルに固有の能力として自己補正を組み込む。
CoSCは一連の自己補正段階を通して機能する。
実験により、CoSCは標準的な数学的データセットの性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-10-14T17:16:44Z) - Regression with Large Language Models for Materials and Molecular Property Prediction [0.0]
本研究では,大規模言語モデル(LLM)が物質的および分子的特性の回帰処理を行う能力を示す。
我々は,Large Language Model Meta AI (LLaMA) 3を,QM9データセットのいくつかの分子特性と24の材料特性についてベンチマークした。
論文 参考訳(メタデータ) (2024-09-09T21:26:32Z) - A Unified Approach to Inferring Chemical Compounds with the Desired Aqueous Solubility [5.763661159910719]
水溶性(AS)は、医薬品の発見と材料設計において重要な役割を果たす重要な物理化学的性質である。
本稿では,単純な決定論的グラフ理論記述子に基づいて,化学化合物を所望のASで予測し,推定するための新しい統一的アプローチについて報告する。
論文 参考訳(メタデータ) (2024-09-06T14:20:38Z) - Temperature Distribution Prediction in Laser Powder Bed Fusion using Transferable and Scalable Graph Neural Networks [0.0]
本研究では, レーザ粉体融合プロセスにおける熱力学のシミュレーションにグラフニューラルネットワーク(GNN)を用いた新しい予測モデルを提案する。
提案モデルでは,L-PBFにおける熱伝達過程の複雑さを計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-07-18T18:14:47Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Delta-CoMe: Training-Free Delta-Compression with Mixed-Precision for Large Language Models [79.46938238953916]
多様なアプリケーションへの微調整された大規模言語モデル(LLM)は、複雑な要求を満たすために不可欠である。
近年の研究では、微調整LDMをベースモデルと対応するデルタウェイトに分解し、低ランクまたは低ビットのアプローチで圧縮してコストを削減することが示唆されている。
本研究では,従来の低ランク圧縮法と低ビット圧縮法がタスク固有の微調整LDMのモデル性能を著しく損なうことを観察する。
論文 参考訳(メタデータ) (2024-06-13T07:57:27Z) - SliM-LLM: Salience-Driven Mixed-Precision Quantization for Large Language Models [67.67135738642547]
後学習量子化(PTQ)は、大規模言語モデル(LLM)において研究される強力な圧縮手法である。
既存のPTQ法は、特に4ビット幅以下では、精度と効率の点で理想的ではない。
本稿では,LSM,すなわちSliM-LLMに対するSalience-Driven Mixed-Precision Quantizationスキームを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:21:48Z) - CPM-2: Large-scale Cost-effective Pre-trained Language Models [71.59893315671997]
本稿では, PLM を用いた事前学習, 微調整, 推論の効率性問題に対処するための費用対効果技術について述べる。
我々は,既存のPLMをスクラッチからトレーニングする代わりに活用することで,事前学習プロセスの促進を目的とした知識継承を導入する。
計算資源が限られている大規模PLMに対して,新しい推論ツールキット,すなわちInfMoEを実装した。
論文 参考訳(メタデータ) (2021-06-20T15:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。