論文の概要: Autonomous Droplet Microfluidic Design Framework with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.06691v1
- Date: Mon, 11 Nov 2024 03:20:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:47.143321
- Title: Autonomous Droplet Microfluidic Design Framework with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた自律型液滴マイクロ流体設計フレームワーク
- Authors: Dinh-Nguyen Nguyen, Raymond Kai-Yu Tong, Ngoc-Duy Dinh,
- Abstract要約: 本研究では,処理および特徴抽出のためのフレームワークであるMicroFluidic-LLMsを提案する。
コンテンツが言語形式に変換され、事前訓練された大きな言語モデルを活用することで、処理上の課題を克服する。
当社のMicroFluidic-LLMsフレームワークは、ディープニューラルネットワークモデルに極めて効果的で簡単なものにすることができることを実証しています。
- 参考スコア(独自算出の注目度): 0.6827423171182153
- License:
- Abstract: Droplet-based microfluidic devices have substantial promise as cost-effective alternatives to current assessment tools in biological research. Moreover, machine learning models that leverage tabular data, including input design parameters and their corresponding efficiency outputs, are increasingly utilised to automate the design process of these devices and to predict their performance. However, these models fail to fully leverage the data presented in the tables, neglecting crucial contextual information, including column headings and their associated descriptions. This study presents MicroFluidic-LLMs, a framework designed for processing and feature extraction, which effectively captures contextual information from tabular data formats. MicroFluidic-LLMs overcomes processing challenges by transforming the content into a linguistic format and leveraging pre-trained large language models (LLMs) for analysis. We evaluate our MicroFluidic-LLMs framework on 11 prediction tasks, covering aspects such as geometry, flow conditions, regimes, and performance, utilising a publicly available dataset on flow-focusing droplet microfluidics. We demonstrate that our MicroFluidic-LLMs framework can empower deep neural network models to be highly effective and straightforward while minimising the need for extensive data preprocessing. Moreover, the exceptional performance of deep neural network models, particularly when combined with advanced natural language processing models such as DistilBERT and GPT-2, reduces the mean absolute error in the droplet diameter and generation rate by nearly 5- and 7-fold, respectively, and enhances the regime classification accuracy by over 4%, compared with the performance reported in a previous study. This study lays the foundation for the huge potential applications of LLMs and machine learning in a wider spectrum of microfluidic applications.
- Abstract(参考訳): 液滴ベースのマイクロ流体デバイスは、生物研究における現在のアセスメントツールに対する費用対効果の代替として、かなり有望である。
さらに、入力設計パラメータとそれに対応する効率出力を含む表データを活用する機械学習モデルは、これらのデバイスの設計プロセスを自動化し、その性能を予測するためにますます活用されている。
しかし、これらのモデルはテーブルに表示されるデータを完全に活用できず、列の先頭や関連する記述を含む重要なコンテキスト情報を無視する。
本研究では,表型データフォーマットからコンテキスト情報を効果的にキャプチャする,処理と特徴抽出のためのフレームワークであるMicroFluidic-LLMsを提案する。
MicroFluidic-LLMは、コンテンツを言語形式に変換し、分析に事前訓練された大規模言語モデル(LLM)を活用することで、処理上の課題を克服する。
我々は,11の予測タスクにおけるMicroFluidic-LLMsフレームワークの評価を行い,フローフォーカス型液滴マイクロ流体に関する公開データセットを利用して,幾何学,流れ条件,状態,性能などの側面を網羅した。
当社のMicroFluidic-LLMsフレームワークは、広範囲なデータ前処理の必要性を最小限に抑えながら、ディープニューラルネットワークモデルに極めて効果的で簡単なものにすることができることを実証しています。
さらに、ディープニューラルネットワークモデル、特に DistilBERT や GPT-2 のような先進自然言語処理モデルと組み合わせた場合の例外的な性能は、ドロップレットの直径と生成速度の平均絶対誤差をそれぞれ5倍と7倍に減少させ、前回の調査で報告された性能と比較して、規則分類の精度を4%以上向上させる。
本研究は, マイクロ流体応用の幅広い範囲において, LLMと機械学習の膨大な応用の基盤となるものである。
関連論文リスト
- Is larger always better? Evaluating and prompting large language models for non-generative medical tasks [11.799956298563844]
本研究は、GPTベースのLCM、BERTベースのモデル、従来の臨床予測モデルなど、さまざまなモデルをベンチマークする。
我々は,寛容と予測,疾患階層再構築,生物医学的文章マッチングといった課題に焦点をあてた。
その結果, LLMは, 適切に設計されたプロンプト戦略を用いて, 構造化EHRデータに対して頑健なゼロショット予測能力を示した。
構造化されていない医療用テキストでは、LLMは細調整されたBERTモデルよりも優れておらず、教師なしタスクと教師なしタスクの両方に優れていた。
論文 参考訳(メタデータ) (2024-07-26T06:09:10Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Evaluation of Activated Sludge Settling Characteristics from Microscopy Images with Deep Convolutional Neural Networks and Transfer Learning [7.636901972162706]
本研究では, 活性汚泥沈降特性を評価するために, コンピュータビジョンに基づく革新的な手法を提案する。
深層畳み込みニューラルネットワーク(CNN)モデルの伝達学習の実装により,既存の定量的画像解析技術の限界を克服することを目的とした。
Inception v3, ResNet18, ResNet152, ConvNeXt-nano, ConvNeXt-S などのCNNアーキテクチャを用いて, 汚泥沈降特性の評価を行った。
論文 参考訳(メタデータ) (2024-02-14T18:13:37Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Calibrating Agent-based Models to Microdata with Graph Neural Networks [1.4911092205861822]
エージェントベースモデル(ABM)をデータにキャリブレーションすることは、モデルがその目的を確実に満たすための最も基本的な要件である。
本稿では、時間グラフニューラルネットワークを用いて、粒状マイクロデータに付随するパラメータ後部を学習する。
論文 参考訳(メタデータ) (2022-06-15T14:41:43Z) - An Extensive Data Processing Pipeline for MIMIC-IV [0.20326203100766121]
エンドツーエンドで完全にカスタマイズ可能なパイプラインを提供して、データの抽出、クリーン化、および前処理を行います。
ICUおよび非ICU関連臨床時系列予測タスクにおけるMIMICデータセットの第4版(MIMIC-IV)の予測と評価を行った。
論文 参考訳(メタデータ) (2022-04-29T01:09:38Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。