論文の概要: GPT-4 as an interface between researchers and computational software:
improving usability and reproducibility
- arxiv url: http://arxiv.org/abs/2310.11458v1
- Date: Wed, 4 Oct 2023 14:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 02:09:47.991640
- Title: GPT-4 as an interface between researchers and computational software:
improving usability and reproducibility
- Title(参考訳): gpt-4 研究者と計算ソフトのインタフェース : ユーザビリティと再現性の向上
- Authors: Juan C. Verduzco, Ethan Holbrook, and Alejandro Strachan
- Abstract要約: 分子動力学シミュレーションに広く用いられているソフトウェアに焦点をあてる。
英語のタスク記述から GPT-4 で生成された入力ファイルの有用性を定量化する。
GPT-4は,比較的簡単なタスクに対して,正しい入力ファイルを生成することができる。
さらに、GPT-4の入力ファイルからの計算タスクの記述は、ステップバイステップ命令の詳細なセットから、出版物に適した要約記述まで調整することができる。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are playing an increasingly important role in
science and engineering. For example, their ability to parse and understand
human and computer languages makes them powerful interpreters and their use in
applications like code generation are well-documented. We explore the ability
of the GPT-4 LLM to ameliorate two major challenges in computational materials
science: i) the high barriers for adoption of scientific software associated
with the use of custom input languages, and ii) the poor reproducibility of
published results due to insufficient details in the description of simulation
methods. We focus on a widely used software for molecular dynamics simulations,
the Large-scale Atomic/Molecular Massively Parallel Simulator (LAMMPS), and
quantify the usefulness of input files generated by GPT-4 from task
descriptions in English and its ability to generate detailed descriptions of
computational tasks from input files. We find that GPT-4 can generate correct
and ready-to-use input files for relatively simple tasks and useful starting
points for more complex, multi-step simulations. In addition, GPT-4's
description of computational tasks from input files can be tuned from a
detailed set of step-by-step instructions to a summary description appropriate
for publications. Our results show that GPT-4 can reduce the number of routine
tasks performed by researchers, accelerate the training of new users, and
enhance reproducibility.
- Abstract(参考訳): 大規模言語モデル(LLM)は、科学と工学においてますます重要な役割を担っている。
例えば、人間とコンピュータの言語を解析し理解する能力は、強力なインタプリタを生み出し、コード生成のようなアプリケーションでの使用は十分に文書化されています。
GPT-4 LLMの計算材料科学における2つの大きな課題を改善する能力について検討する。
一 カスタム入力言語の使用に伴う科学的ソフトウェアの採用の障壁が高いこと、及び
二 シミュレーション方法の説明の細部が不十分であることによる公表結果の再現性に乏しいこと。
本稿では,分子動力学シミュレーション用ソフトウェアである大規模原子・分子質量並列シミュレータ(LAMMPS)に着目し,英語のタスク記述からGPT-4によって生成された入力ファイルの有用性と,入力ファイルから計算タスクの詳細な記述を生成する能力について述べる。
GPT-4は,比較的単純なタスクや,より複雑なマルチステップシミュレーションの出発点として有用な入力ファイルを生成することができる。
さらに、gpt-4の入力ファイルからの計算タスクの説明は、ステップバイステップの詳細な命令セットから出版物に適した要約説明へと調整することができる。
この結果から, GPT-4は研究者が行うルーチンタスクの数を減らし, 新規利用者の育成を加速し, 再現性を向上できることがわかった。
関連論文リスト
- In Context Learning and Reasoning for Symbolic Regression with Large Language Models [0.0]
LLM(Large Language Models)は、トランスフォーマーベースの機械学習モデルである。
GPT-4がデータセットから方程式のシンボリックレグレッションを実現する方法を示す。
このアプローチは、ターゲット方程式がより複雑である確立されたSRプログラムよりも優れているわけではない。
論文 参考訳(メタデータ) (2024-10-22T21:50:52Z) - JiuZhang3.0: Efficiently Improving Mathematical Reasoning by Training Small Data Synthesis Models [110.45794710162241]
既存の研究は、事前学習のための大規模な数学関連のテキストを収集したり、巨大な数学問題を合成するために強力なLLMに依存している。
そこで本研究では,数学問題合成のための小さなLLMを効率的に学習し,高品質な事前学習データを効率的に生成する手法を提案する。
我々は、GPT-4 API 9.3k回の呼び出しと4.6Bデータの事前トレーニングのみを必要とする、JuZhang3.0モデルの事前トレーニングに600万の数学問題を合成する。
論文 参考訳(メタデータ) (2024-05-23T09:43:19Z) - Feedback-Generation for Programming Exercises With GPT-4 [0.0]
本稿では,プログラミングタスク仕様と学生が入力として提出した入力の両方を含むプロンプトに対して,GPT-4 Turboが生成する出力の品質について検討する。
アウトプットは, 正当性, パーソナライゼーション, フォールトローカライゼーション, その他の特徴について質的に分析した。
論文 参考訳(メタデータ) (2024-03-07T12:37:52Z) - Genixer: Empowering Multimodal Large Language Models as a Powerful Data Generator [63.762209407570715]
Genixerは4つの重要なステップからなる包括的なデータ生成パイプラインである。
LLaVA1.5でトレーニングされた合成VQAライクなデータセットは、12のマルチモーダルベンチマークのうち10のパフォーマンスを向上させる。
タスク固有のデータセットで訓練されたMLLMは、複雑な命令チューニングデータを生成する際に、GPT-4Vを超えることができる。
論文 参考訳(メタデータ) (2023-12-11T09:44:41Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - Struc-Bench: Are Large Language Models Really Good at Generating Complex Structured Data? [49.688233418425995]
Struc-Benchは、大きな言語モデル(LLM)を特徴とする包括的なベンチマークである。
Pスコア(Prompting Score)とHスコア(Heuristical Score)の2つの革新的な指標を提案する。
実験の結果,LLaMA-7Bに構造認識の微調整を適用すると,性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:31:58Z) - Exploring and Characterizing Large Language Models For Embedded System
Development and Debugging [10.967443876391611]
大規模言語モデル (LLM) は、コードを生成する際、顕著な能力を示しているが、組み込みシステム用のソフトウェアを開発する能力は研究されていない。
我々は,組込みシステム開発におけるLLMの能力と限界を評価するためのオープンソースフレームワークを開発した。
この発見を利用して、人間のプログラマがこれらのツールとどのように相互作用するかを研究し、組み込みシステムを構築するためのヒューマンAIベースのソフトウェアエンジニアリングワークフローを開発する。
論文 参考訳(メタデータ) (2023-07-07T20:14:22Z) - Visual Instruction Tuning [79.70923292053097]
本稿では,言語のみの GPT-4 を用いてマルチモーダルな言語イメージ命令追跡データを生成する試みについて紹介する。
このようなデータに対して,LLaVA: Large Language and Vision Assistantを導入する。
科学QAを微調整すると、LLaVAとGPT-4の相乗効果は92.53%の新しい最先端精度を達成する。
論文 参考訳(メタデータ) (2023-04-17T17:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。