論文の概要: ComputeGPT: A computational chat model for numerical problems
- arxiv url: http://arxiv.org/abs/2305.06223v1
- Date: Mon, 8 May 2023 19:21:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:33:53.197094
- Title: ComputeGPT: A computational chat model for numerical problems
- Title(参考訳): ComputeGPT:数値問題に対する計算チャットモデル
- Authors: Ryan Hardesty Lewis, Junfeng Jiao
- Abstract要約: 本稿では、オンデマンドコードを実行することで、計算問題に答えられるチャットモデルを構築する方法であるComputeGPTを紹介する。
我々は,この手法を,ローカルなブラウザベースのPython解釈と微調整プロンプトと組み合わせて,数値問題に対する最先端の効率性を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Language models are not accurate in numerical problems. Their architecture
does not allow for anything less than a probabilistic next word. This paper
introduces ComputeGPT: an approach of creating a chat model able to answer
computational problems through running on-demand code. ComputeGPT converts each
question to relevant code, runs the code, and returns the computed answer as
part of the chat. We combine this approach with a local browser-based Python
interpretation and fine-tuned prompts in order to achieve state-of-the-art
efficiency on numerical problems and provide a suitable front-end and safe
environment for the code to be executed in.
- Abstract(参考訳): 言語モデルは数値問題では正確ではない。
彼らのアーキテクチャは、確率論的次の単語以上のことは許さない。
本稿では、オンデマンドコードを実行して計算問題に答えられるチャットモデルを作成する方法であるcomputegptについて紹介する。
ComputeGPTは、各質問を関連コードに変換し、コードを実行し、チャットの一部として計算された回答を返す。
このアプローチとローカルブラウザベースのPython解釈と微調整されたプロンプトを組み合わせることで,数値問題に対する最先端の効率を実現し,実行対象のコードに対して適切なフロントエンドと安全な環境を提供する。
関連論文リスト
- Evaluating ChatGPT-3.5 Efficiency in Solving Coding Problems of Different Complexity Levels: An Empirical Analysis [6.123324869194196]
我々はLeetCode上でChatGPTのGPT-3.5-turboモデルの性能を評価する。
ChatGPTは困難が増すにつれて少ない問題を解く。
次に、プロンプトエンジニアリングによりChatGPTの性能が向上する。
第3に、Python、Java、C++といった一般的な言語では、Elixir、Erlang、Racketといったあまり一般的でない言語よりも、ChatGPTの方がパフォーマンスがよい。
論文 参考訳(メタデータ) (2024-11-12T04:01:09Z) - Evaluating AI-generated code for C++, Fortran, Go, Java, Julia, Matlab, Python, R, and Rust [0.1906498126334485]
本研究では,ChatGPTバージョン3.5および4の多種多様なプログラミング言語におけるコード生成能力を評価する。
我々はChatGPTに、単純な数値積分、共役勾配解法、並列1次元ステンシルに基づく熱方程式解法という3つの異なる符号を生成するよう依頼した。
分析の焦点は、コードのコンパイル、実行時のパフォーマンス、正確性でした。
論文 参考訳(メタデータ) (2024-05-21T17:04:37Z) - Benchmarking ChatGPT on Algorithmic Reasoning [58.50071292008407]
GNN向けに設計されたCLRSベンチマークスイートからChatGPTのアルゴリズム問題を解く能力を評価する。
ChatGPTは、Pythonを使ってこれらの問題を解決することで、専門家のGNNモデルより優れています。
論文 参考訳(メタデータ) (2024-04-04T13:39:06Z) - MathCoder: Seamless Code Integration in LLMs for Enhanced Mathematical
Reasoning [52.97768001837269]
本稿では,オープンソース言語モデルを微調整する手法を提案する。
本稿では,問題のある新しい,高品質なデータセットを生成する手法とそのコードベースソリューションを提案する。
このアプローチは、問題の解決にコードベースのソリューションを生成することができるモデルのファミリーであるMathCoderモデルを生成する。
論文 参考訳(メタデータ) (2023-10-05T17:52:09Z) - Natural Language Embedded Programs for Hybrid Language Symbolic Reasoning [84.12154024070024]
本研究では,数学・記号的推論,自然言語理解,後続の課題に対処するための統合フレームワークとして,自然言語組み込みプログラム(NLEP)を提案する。
我々のアプローチは,構造化知識の自然言語表現を含むデータ構造上の関数を定義する完全なPythonプログラムを生成するよう,言語モデルに促す。
Pythonインタープリタが生成されたコードを実行し、出力をプリントする。
論文 参考訳(メタデータ) (2023-09-19T17:54:21Z) - Unmasking the giant: A comprehensive evaluation of ChatGPT's proficiency in coding algorithms and data structures [0.6990493129893112]
本稿では,ChatGPTが入力した問題に対する正しい解を生成する能力,コード品質,コードによってスローされる実行時エラーの性質を評価する。
この種の状況において、ChatGPTコードがいかに間違っているか、いくつかの洞察を得るために、パスされたテストケースのパターンを調べます。
論文 参考訳(メタデータ) (2023-07-10T08:20:34Z) - Pair Programming with Large Language Models for Sampling and Estimation
of Copulas [0.0]
モンテカルロシミュレーションに基づくコプラによる依存モデリングの例は、最先端の大規模言語モデル(LLM)を用いて開発されている。
この中には、自然言語でのChatGPTとのインタラクションや数学的形式の使用が含まれており、PythonとRで動作するコードの生成につながっている。
注意深い急進的なエンジニアリングを通じて、ChatGPTが生成した成功解と失敗解を分離し、その結果、関連する長所と短所の包括的リストを得る。
論文 参考訳(メタデータ) (2023-03-31T15:02:48Z) - ChatGPT for Programming Numerical Methods [2.741266294612776]
ChatGPTは、OpenAI社によって最近リリースされた大きな言語モデルである。
計算アルゴリズムのプログラミングにおけるChatGPTの能力を初めて探求する。
論文 参考訳(メタデータ) (2023-03-21T12:18:17Z) - Program of Thoughts Prompting: Disentangling Computation from Reasoning
for Numerical Reasoning Tasks [108.4568236569645]
CoT(Chain-of-thinkts prompting)は、これらのタスクに対する最先端の手法である。
本稿では、言語モデルを用いて推論過程をプログラムとして表現する「思考プログラム(PoT)」を提案する。
PoTは、評価されたすべてのデータセットに対して、CoTに対する平均的なパフォーマンス向上を約12%示すことができる。
論文 参考訳(メタデータ) (2022-11-22T21:06:00Z) - ProbNum: Probabilistic Numerics in Python [62.52335490524408]
確率的数値法(PNMs)は確率的推論によって数値問題を解く。
ProbNum: 最先端のPNMを提供するPythonライブラリ。
論文 参考訳(メタデータ) (2021-12-03T07:20:50Z) - Multi-hop Question Generation with Graph Convolutional Network [58.31752179830959]
マルチホップ質問生成(Multi-hop Question Generation, QG)は,異なる段落から散在する複数の証拠を集約・推論することで,回答に関連する質問を生成することを目的とする。
複数のホップでコンテキストエンコーディングを行うMulQG(Multi-Hop volution Fusion Network for Question Generation)を提案する。
提案モデルでは,高い完全性を有する流動的な質問を生成することができ,マルチホップ評価において,最強のベースラインを20.8%向上させることができる。
論文 参考訳(メタデータ) (2020-10-19T06:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。