論文の概要: Intelligent Materials Modelling: Large Language Models Versus Partial Least Squares Regression for Predicting Polysulfone Membrane Mechanical Performance
- arxiv url: http://arxiv.org/abs/2603.13834v1
- Date: Sat, 14 Mar 2026 08:36:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.434378
- Title: Intelligent Materials Modelling: Large Language Models Versus Partial Least Squares Regression for Predicting Polysulfone Membrane Mechanical Performance
- Title(参考訳): インテリジェント材料モデリング:ポリスルホン膜機械的性能予測のための大言語モデル
- Authors: Dingding Cao, Mieow Kee Chan, Wan Sieng Yeo, Said Bey, Alberto Figoli,
- Abstract要約: 本研究では, 4つの大言語モデル(LLM)を用いて, 部分最小二乗回帰(PLS)に対する知識駆動推論のベンチマークを行った。
LLMはブートストラップ不安定下での非線形で制約に敏感な特性に優れる。
実証された相補性は、解釈可能なフレームワーク内でLLM符号化された知識を活用するハイブリッドアーキテクチャは、小さなデータ素材の発見を最適化する可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the mechanical properties of polysulfone (PSF) membranes from structural descriptors remains challenging due to extreme data scarcity typical of experimental studies. To investigate this issue, this study benchmarked knowledge-driven inference using four large language models (LLMs) (DeepSeek-V3, DeepSeek-R1, ChatGPT-4o, and GPT-5) against partial least squares (PLS) regression for predicting Young's modulus (E), tensile strength (TS), and elongation at break (EL) based on pore diameter (PD), contact angle (CA), thickness (T), and porosity (P) measurements. These knowledge-driven approaches demonstrated property-specific advantages over the chemometric baseline. For EL, LLMs achieved statistically significant improvements, with DeepSeek-R1 and GPT-5 delivering 40.5% and 40.3% of Root Mean Square Error reductions, respectively, reducing mean absolute errors from $11.63\pm5.34$% to $5.18\pm0.17$%. Run-to-run variability was markedly compressed for LLMs ($\leq$3%) compared to PLS (up to 47%). E and TS predictions showed statistical parity between approaches ($q\geq0.05$), indicating sufficient performance of linear methods for properties with strong structure-property correlations. Error topology analysis revealed systematic regression-to-the-mean behavior dominated by data-regime effects rather than model-family limitations. These findings establish that LLMs excel for non-linear, constraint-sensitive properties under bootstrap instability, while PLS remains competitive for linear relationships requiring interpretable latent-variable decompositions. The demonstrated complementarity suggests hybrid architectures leveraging LLM-encoded knowledge within interpretable frameworks may optimise small-data materials discovery.
- Abstract(参考訳): 構造記述子からのポリスルホン膜(PSF)の力学的特性の予測は、実験の典型的なデータ不足のため、依然として困難である。
本研究は,4大言語モデル(LLMs,DeepSeek-V3,DeepSeek-R1,ChatGPT-4o,GPT-5)とヤング率(E),引張強度(TS),細孔径(PD),接触角(CA),厚み(T),ポロシティ(P)測定に基づく細孔径(PD),引張強度(TS)の予測のための部分最小二乗回帰(PLS)に対する知識駆動推論をベンチマークした。
これらの知識駆動のアプローチは、化学量論のベースラインよりも特性に特有な利点を示した。
ELは、DeepSeek-R1とGPT-5でそれぞれ40.5%と40.3%のルート平均角誤差削減を実現し、平均絶対誤差を11.63\pm5.34$%から5.18\pm0.17$%に下げた。
ラン・ツー・ランの変動はLSS(最大47%)と比較してLSM(\leq$3%)で顕著に圧縮された。
E と TS の予測はアプローチ間の統計的同値性を示し($q\geq0.05$)、強い構造-不等式相関を持つ特性に対する線形手法の十分な性能を示した。
誤差トポロジ解析により,モデル-家族制限よりもデータ-登録効果に支配される系統的回帰-平均行動が明らかになった。
これらの結果から, LLMはブートストラップ不安定下での非線形, 制約感受性特性に優れ, PLSは解釈可能な潜在変数分解を必要とする線形関係に競争力を持つことが明らかとなった。
実証された相補性は、解釈可能なフレームワーク内でLLM符号化された知識を活用するハイブリッドアーキテクチャは、小さなデータ素材の発見を最適化する可能性があることを示唆している。
関連論文リスト
- Linear-LLM-SCM: Benchmarking LLMs for Coefficient Elicitation in Linear-Gaussian Causal Models [28.281361951823765]
大型言語モデル(LLM)を評価するためのプラグイン・アンド・プレイベンチマークフレームワークであるLinear-LLM-SCMを紹介する。
このようなベンチマークタスクにおける課題、すなわち、いくつかのモデルにおける結果の強みと、連続的なドメインの急激なエッジによるDAGの誤特定に対する感受性を示す。
また,ベンチマークフレームワークをオープンソースとして公開し,DAGと既製のLCMのプラグイン・アンド・プレイを,各ドメインで積極的に評価することができるようにした。
論文 参考訳(メタデータ) (2026-02-10T20:49:01Z) - LLMs can Compress LLMs: Adaptive Pruning by Agents [0.0]
ポストトレーニングプルーニングは、性能を保ちながら計算コストを削減するための有望なアプローチとして現れている。
我々はエージェント誘導プルーニングを導入し、ファンデーションモデルが適応プルーニングエージェントとして機能する。
我々はQ3モデル(4Bおよび8Bパラメータ)の約45%の間隔で評価を行い、構造化プルーニングベースラインよりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2026-01-14T18:45:36Z) - Self-Correction Distillation for Structured Data Question Answering [50.98882432829651]
小型言語モデル(LLM)は、構造化クエリの生成時にエラーを起こしやすい。
小型LCMの構造データQA能力を向上させるための自己補正蒸留(SCD)法を提案する。
論文 参考訳(メタデータ) (2025-11-11T09:01:51Z) - Large Language Models as Universal Predictors? An Empirical Study on Small Tabular Datasets [0.0]
大規模言語モデル(LLM)は、下流タスクを明示的に微調整することなく、構造化された入力に対して予測タスクを実行することができる。
分類,回帰,クラスタリングタスクのための小規模構造化データセット上でのLCMの実証関数近似能力について検討した。
以上の結果から,LLMは構造化データの汎用的予測エンジンとして機能する可能性が示唆された。
論文 参考訳(メタデータ) (2025-08-24T15:00:51Z) - Enhancing Cybersecurity in Critical Infrastructure with LLM-Assisted Explainable IoT Systems [0.22369578015657962]
本稿では,オートエンコーダを用いた数値異常検出とLarge Language Models(LLM)を併用して,事前処理と解釈性を向上するハイブリッドフレームワークを提案する。
KDDCup99 10%補正データセットの実験結果から,LLM支援前処理パイプラインは異常検出性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-03-05T04:53:07Z) - EPi-cKANs: Elasto-Plasticity Informed Kolmogorov-Arnold Networks Using Chebyshev Polynomials [0.0]
チェビシェフ型ネットワーク(EPi-cKAN)のエラスト可塑性について述べる。
EPi-cKANは、応力成分の予測に優れた精度を提供し、ブラインド三軸軸対称のひずみ制御荷重経路下での砂弾塑性挙動の予測に使用する場合、より良い精度を示す。
論文 参考訳(メタデータ) (2024-10-12T16:01:38Z) - Data-free Weight Compress and Denoise for Large Language Models [96.68582094536032]
パラメータ行列を圧縮する手法として,データフリーなジョイントランクk近似を提案する。
キャリブレーションデータなしで、元の性能の93.43%を維持しながら80%のパラメータのモデルプルーニングを実現する。
論文 参考訳(メタデータ) (2024-02-26T05:51:47Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Learning representations with end-to-end models for improved remaining
useful life prognostics [64.80885001058572]
残りの設備の実用寿命(RUL)は、現在の時刻と故障までの期間として定義される。
マルチ層パーセプトロンと長期メモリ層(LSTM)に基づくエンドツーエンドのディープラーニングモデルを提案し、RULを予測する。
提案するエンド・ツー・エンドのモデルがこのような優れた結果を達成し、他のディープラーニングや最先端の手法と比較する方法について論じる。
論文 参考訳(メタデータ) (2021-04-11T16:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。