論文の概要: FormuLLA: A Large Language Model Approach to Generating Novel 3D Printable Formulations
- arxiv url: http://arxiv.org/abs/2601.02071v1
- Date: Mon, 05 Jan 2026 12:50:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.131837
- Title: FormuLLA: A Large Language Model Approach to Generating Novel 3D Printable Formulations
- Title(参考訳): FormuLLA:新しい3Dプリント可能な形式を生成するための大規模言語モデルアプローチ
- Authors: Adeshola Okubena, Yusuf Ali Mohammed, Moe Elbadawi,
- Abstract要約: 三次元3Dプリンティングは、真のパーソナライズド・ソーセージ・フォームを可能にする可能性のある高度な製造技術である。
最近の研究は、人工知能(AI)を統合し、定式化とプロセス開発を加速している。
本研究では,多言語モデル (LLMs) を用いて, 有効成分 (API) 量に基づく適切な試薬を推奨する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pharmaceutical three-dimensional (3D) printing is an advanced fabrication technology with the potential to enable truly personalised dosage forms. Recent studies have integrated artificial intelligence (AI) to accelerate formulation and process development, drastically transforming current approaches to pharmaceutical 3D printing. To date, most AI-driven efforts remain narrowly focused, while failing to account for the broader formulation challenges inherent to the technology. Recent advances in AI have introduced artificial general intelligence concepts, wherein systems extend beyond conventional predictive modelling toward more generalised, human-like reasoning. In this work, we investigate the application of large language models (LLMs), fine-tuned on a fused deposition modelling (FDM) dataset comprising over 1400 formulations, to recommend suitable excipients based on active pharmaceutical ingredient (API) dose, and predict filament mechanical properties. Four LLM architectures were fine-tuned, with systematic evaluation of both fine-tuning and generative parameter configurations. Our results demonstrate that Llama2 was best suited for recommending excipients for FDM formulations. Additionally, model selection and parameterisation significantly influence performance, with smaller LLMs exhibiting instances of catastrophic forgetting. Furthermore, we demonstrate: (i) even with relatively small dataset of over 1400 formulations, it can lead to model catastrophic forgetting; (ii) standard LLM metrics only evaluate linguistic performance but not formulation processability; and (iii) LLMs trained on biomedically-related data do not always produce the best results. Addressing these challenges is essential to advancing LLMs beyond linguistic proficiency and toward reliable systems for pharmaceutical formulation development.
- Abstract(参考訳): 薬用3次元3Dプリンティングは、真のパーソナライズド・ソーセージ・フォームを可能にする可能性を持つ高度な製造技術である。
最近の研究は、人工知能(AI)を統合して定式化とプロセス開発を加速し、医薬3Dプリンティングへの現在のアプローチを大きく変えている。
現在まで、ほとんどのAI主導の取り組みは、その技術に固有のより広範な定式化の課題を考慮していないが、焦点を絞ったままである。
近年のAIの進歩は、AIの概念を導入し、システムは従来の予測モデルを超えて、より一般化された人間的な推論へと拡張されている。
本研究では, 1400以上の定式化を含む融合沈着モデル(FDM)データセットを微調整した大規模言語モデル(LLM)の適用について検討し, 有効成分(API)量に基づく適切な沈降剤を推奨し, フィラメント力学特性の予測を行う。
4つのLCMアーキテクチャが微調整され、微調整と生成パラメータ構成の両方を体系的に評価した。
以上の結果から, Llama2はFDM定式化に有効であることが示唆された。
さらに, モデル選択とパラメータ化が性能に大きく影響し, 小型のLCMでは破滅的忘れ込みの事例が見られた。
さらに、私たちは次のように示します。
(i)1400以上の定式化の比較的小さなデータセットであっても、破滅的な忘れをモデルにすることができる。
(二)標準LLMメトリクスは、言語的性能のみを評価するが、定式化処理性は評価しない。
三 バイオメディカル関連データに基づいて訓練したLSMが必ずしも最良の結果をもたらすとは限らないこと。
これらの課題に対処することは、言語能力を超えたLCMの推進と、医薬品製剤開発のための信頼性の高いシステムに不可欠である。
関連論文リスト
- ChemActor: Enhancing Automated Extraction of Chemical Synthesis Actions with LLM-Generated Data [53.78763789036172]
ケミカルエグゼキュータとして完全微調整された大規模言語モデル(LLM)であるChemActorを紹介し,非構造化実験手順と構造化動作シーケンスを変換する。
このフレームワークは、分散分散に基づくデータ選択モジュールと汎用LLMを統合し、単一の分子入力からマシン実行可能なアクションを生成する。
反応記述(R2D)と記述記述処理(D2A)のタスクの実験により、ChemActorは最先端のパフォーマンスを達成し、ベースラインモデルよりも10%高い性能を示した。
論文 参考訳(メタデータ) (2025-06-30T05:11:19Z) - Zero-Shot Document-Level Biomedical Relation Extraction via Scenario-based Prompt Design in Two-Stage with LLM [6.26004554105527]
ハードウェアと労働コストの低い汎用大言語モデル (LLM) を用いて, 注釈のない完全文書から同じ結果を得るための新しい手法を提案する。
我々のアプローチは、名前付きエンティティ認識(NER)と関係抽出(RE)の2つの主要な段階を組み合わせる。
本稿では,プロンプトの有効性を高めるために,5部テンプレート構造とシナリオに基づくプロンプト設計の原理を提案する。
論文 参考訳(メタデータ) (2025-05-02T07:33:20Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - LLMs-in-the-loop Part-1: Expert Small AI Models for Bio-Medical Text Translation [0.0]
本研究では,医療用テキストに最適化された教師ありニューラルマシン翻訳モデルを開発するために,新しい"LLMs-in-the-loop"アプローチを提案する。
6つの言語での独自の平行コーパスは、科学論文、人工的に生成された臨床文書、医療文書から編纂された。
MarianMTベースのモデルは、Google Translate、DeepL、GPT-4-Turboより優れている。
論文 参考訳(メタデータ) (2024-07-16T19:32:23Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。